正在加载

连接到 Azure OpenAI

Elastic Stack Serverless Security

此页面提供了首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使您能够在 Kibana 中利用大型语言模型 (LLM)。您首先需要配置 Azure,然后在 Kibana 中配置连接器。

首先,设置 Azure OpenAI 部署

  1. 登录到 Azure 控制台并搜索 Azure OpenAI。
  2. Azure AI 服务中,选择创建
  3. 对于项目详细信息,选择您的订阅和资源组。如果您没有资源组,请选择新建来创建一个。
  4. 对于实例详细信息,选择所需的区域并指定名称,例如 example-deployment-openai
  5. 选择标准定价层,然后单击下一步
  6. 配置您的网络设置,单击下一步,可以选择添加标签,然后单击下一步
  7. 查看您的部署设置,然后单击创建。完成后,选择转到资源

以下视频演示了这些步骤(点击观看)。

azure-openai-configure-deployment-video

接下来,为部署创建访问密钥

  1. 在您的 Azure OpenAI 部署中,选择单击此处以管理密钥
  2. 将您的密钥存储在安全的位置。

以下视频演示了这些步骤(点击观看)。

azure-openai-configure-keys-video

现在,设置 Azure OpenAI 模型

  1. 在您的 Azure OpenAI 部署中,选择模型部署,然后单击管理部署

  2. 部署页面上,选择创建新部署

  3. 选择模型下,选择 gpt-4ogpt-4 turbo

  4. 将模型版本设置为“自动更新为默认”。

    重要提示

    您可以使用的模型取决于区域可用性。为了获得最佳效果,请使用 GPT-4o 2024-05-13 并尽可能提高每分钟令牌数 (TPM) 容量。有关不同模型在不同任务中的表现的更多信息,请参阅大型语言模型性能矩阵

  5. 部署类型下,选择标准

  6. 命名您的部署。

  7. 每分钟令牌数速率限制滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。

  8. 单击创建

以下视频演示了这些步骤(点击观看)。

azure-openai-configure-model-video

最后,在 Kibana 中配置连接器

  1. 登录到 Kibana。

  2. 在导航菜单中找到连接器页面,或使用全局搜索字段。然后单击创建连接器,并选择 OpenAI

  3. 为您的连接器命名,以帮助您跟踪不同的模型,例如 Azure OpenAI (GPT-4 Turbo v. 0125)

  4. 对于选择 OpenAI 提供商,选择 Azure OpenAI

  5. 更新 URL 字段。我们建议执行以下操作

    1. 导航到 Azure AI Studio 中的部署并选择在 Playground 中打开。将显示聊天 Playground 屏幕。
    2. 选择查看代码,然后从下拉菜单中,将示例代码更改为 Curl
    3. 突出显示并复制不带引号的 URL,然后将其粘贴到 Kibana 中的 URL 字段中。
    4. (可选)或者,请参阅 API 文档,了解如何手动创建 URL。
  6. API 密钥下,输入您的 API 密钥之一。

  7. 单击保存并测试,然后单击运行

您的 LLM 连接器现已配置完成。以下视频演示了这些步骤(点击观看)。

azure-openai-configure-model-video

© . All rights reserved.