连接 Azure OpenAI

编辑

此页面提供首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使您能够在 Kibana 中利用大型语言模型 (LLM)。您首先需要配置 Azure,然后在 Kibana 中配置连接器。

配置 Azure

编辑
配置部署
编辑

首先,设置 Azure OpenAI 部署

  1. 登录 Azure 控制台并搜索 Azure OpenAI。
  2. Azure AI 服务 中,选择 创建
  3. 对于 项目详细信息,选择您的订阅和资源组。如果您没有资源组,请选择 新建 来创建一个。
  4. 对于 实例详细信息,选择所需的区域并指定名称,例如 example-deployment-openai
  5. 选择 标准 定价层,然后单击 下一步
  6. 配置您的网络设置,单击 下一步,可选地添加标签,然后单击 下一步
  7. 查看您的部署设置,然后单击 创建。完成后,选择 转到资源

以下视频演示了这些步骤。


配置密钥
编辑

接下来,为部署创建访问密钥

  1. 在您的 Azure OpenAI 部署中,选择 单击此处管理密钥
  2. 将您的密钥存储在安全的位置。

以下视频演示了这些步骤。


配置模型
编辑

现在,设置 Azure OpenAI 模型

  1. 在您的 Azure OpenAI 部署中,选择 模型部署,然后单击 管理部署
  2. 部署 页面上,选择 创建新部署
  3. 选择模型 下,选择 gpt-4ogpt-4 turbo
  4. 将模型版本设置为“自动更新为默认”。

    您可以使用的模型取决于 区域可用性。为了获得最佳效果,请使用 GPT-4o 2024-05-13 和最大的每分钟令牌数 (TPM) 容量。有关不同模型如何针对不同任务执行的更多信息,请参阅 大型语言模型性能矩阵

  5. 部署类型 下,选择 标准
  6. 命名您的部署。
  7. 每分钟令牌速率限制 滑块滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。
  8. 单击 创建

以下视频演示了这些步骤。


配置 Elastic AI 助手

编辑

最后,在 Kibana 中配置连接器

  1. 登录 Kibana。
  2. 在导航菜单中找到 连接器 页面,或使用 全局搜索字段。然后单击 创建连接器,并选择 OpenAI
  3. 为您的连接器命名以帮助您跟踪不同的模型,例如 Azure OpenAI (GPT-4 Turbo v. 0125)
  4. 对于 选择 OpenAI 提供商,选择 Azure OpenAI
  5. 更新 URL 字段。我们建议执行以下操作

    1. 导航到 Azure AI Studio 中的部署,然后选择 在 Playground 中打开。将显示 聊天 Playground 屏幕。
    2. 选择 查看代码,然后从下拉菜单中将 示例代码 更改为 Curl
    3. 突出显示并复制 URL(不带引号),然后将其粘贴到 Kibana 中的 URL 字段中。
    4. (可选)或者,请参阅 API 文档 以了解如何手动创建 URL。
  6. API 密钥 下,输入您的 API 密钥之一。
  7. 单击 保存并测试,然后单击 运行

您的 LLM 连接器现已配置。以下视频演示了这些步骤。