连接到 Azure OpenAI编辑

此页面提供了有关首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使您能够在 Kibana 中利用大型语言模型 (LLM)。您需要先配置 Azure,然后在 Kibana 中配置连接器。

配置 Azure编辑

配置部署编辑

首先,设置 Azure OpenAI 部署

  1. 登录到 Azure 控制台并搜索 Azure OpenAI。
  2. Azure AI 服务 中,选择 创建.
  3. 对于 项目详细信息,请选择您的订阅和资源组。如果您没有资源组,请选择 创建新的 来创建一个。
  4. 对于 实例详细信息,选择所需的区域并指定一个名称,例如 example-deployment-openai
  5. 选择 标准 定价层,然后单击 下一步.
  6. 配置您的网络设置,单击 下一步,选择性地添加标签,然后单击 下一步.
  7. 查看您的部署设置,然后单击 创建。完成后,选择 转到资源.

以下视频演示了这些步骤。


配置密钥编辑

接下来,为部署创建访问密钥

  1. 在您的 Azure OpenAI 部署中,选择 单击此处管理密钥.
  2. 将您的密钥存储在安全位置。

以下视频演示了这些步骤。


配置模型编辑

现在,设置 Azure OpenAI 模型

  1. 在您的 Azure OpenAI 部署中,选择 模型部署,然后单击 管理部署.
  2. 部署 页面上,选择 创建新的部署.
  3. 选择模型 下,选择 gpt-4gpt-4-32k

    • 如果您选择 gpt-4,请将 模型版本 设置为 0125-Preview
    • 如果您选择 gpt-4-32k,请将 模型版本 设置为 default

      您可以使用的模型取决于 区域可用性。为了获得最佳效果,请使用 GPT-4o 2024-05-13,该模型具有最大的每分钟令牌 (TPM) 容量。有关不同模型在不同任务中的执行方式的更多信息,请参阅 大型语言模型性能矩阵.

  4. 部署类型 下,选择 标准.
  5. 命名您的部署。
  6. 每分钟令牌速率限制 滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。
  7. 单击 创建.

以下视频演示了这些步骤。


配置 Elastic AI 助手编辑

最后,在 Kibana 中配置连接器

  1. 登录到 Kibana。
  2. 转到 堆栈管理 → 连接器 → 创建连接器 → OpenAI.
  3. 为您的连接器命名,以帮助您跟踪不同的模型,例如 Azure OpenAI (GPT-4 Turbo v. 0125)
  4. 对于 选择 OpenAI 提供商,请选择 Azure OpenAI.
  5. 更新 URL 字段。我们建议您执行以下操作

    1. 导航到 Azure AI Studio 中的部署,然后选择 在 Playground 中打开聊天 Playground 屏幕显示。
    2. 选择 查看代码,然后从下拉菜单中,将 示例代码 更改为 Curl
    3. 突出显示并复制 URL(不带引号),然后将其粘贴到 Kibana 中的 URL 字段中。
    4. (可选)或者,请参阅 API 文档 以了解如何手动创建 URL。
  6. API 密钥 下,输入您的一个 API 密钥。
  7. 单击 保存并测试,然后单击 运行.

您的 LLM 连接器现在已配置。以下视频演示了这些步骤。