连接到 Azure OpenAI

编辑

本页提供了首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使你能够在 Kibana 中利用大型语言模型 (LLM)。你首先需要配置 Azure,然后在 Kibana 中配置连接器。

配置 Azure

编辑
配置部署
编辑

首先,设置 Azure OpenAI 部署

  1. 登录到 Azure 控制台并搜索 Azure OpenAI。
  2. Azure AI 服务 中,选择 创建
  3. 对于 项目详细信息,选择你的订阅和资源组。如果你没有资源组,请选择 新建 来创建一个。
  4. 对于 实例详细信息,选择所需的区域并指定一个名称,例如 example-deployment-openai
  5. 选择 标准 定价层,然后单击 下一步
  6. 配置你的网络设置,单击 下一步,可以选择添加标签,然后单击 下一步
  7. 查看你的部署设置,然后单击 创建。完成后,选择 转到资源

以下视频演示了这些步骤。


配置密钥
编辑

接下来,为部署创建访问密钥

  1. 在你的 Azure OpenAI 部署中,选择 单击此处管理密钥
  2. 将你的密钥存储在安全位置。

以下视频演示了这些步骤。


配置模型
编辑

现在,设置 Azure OpenAI 模型

  1. 在你的 Azure OpenAI 部署中,选择 模型部署,然后单击 管理部署
  2. 部署 页面上,选择 创建新部署
  3. 选择模型 下,选择 gpt-4ogpt-4 turbo
  4. 将模型版本设置为“自动更新到默认”。

    你可以使用的模型取决于区域可用性。为了获得最佳结果,请使用具有最大每分钟令牌数 (TPM) 容量的 GPT-4o 2024-05-13。有关不同模型如何针对不同任务执行的更多信息,请参阅大语言模型性能矩阵

  5. 部署类型 下,选择 标准
  6. 为你的部署命名。
  7. 每分钟令牌数速率限制 滑块滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。
  8. 单击 创建

以下视频演示了这些步骤。


配置 Elastic AI 助手

编辑

最后,在 Kibana 中配置连接器

  1. 登录到 Kibana。
  2. 在导航菜单中找到 连接器 页面,或使用全局搜索字段。然后单击 创建连接器,并选择 OpenAI
  3. 为你的连接器命名,以帮助你跟踪不同的模型,例如 Azure OpenAI (GPT-4 Turbo v. 0125)
  4. 对于 选择 OpenAI 提供商,选择 Azure OpenAI
  5. 更新 URL 字段。我们建议执行以下操作

    1. 在 Azure AI Studio 中导航到你的部署,然后选择 在 Playground 中打开聊天 Playground 屏幕会显示。
    2. 选择 查看代码,然后从下拉列表中,将 示例代码 更改为 Curl
    3. 突出显示并复制不带引号的 URL,然后将其粘贴到 Kibana 中的 URL 字段中。
    4. (可选)或者,请参阅API 文档,了解如何手动创建 URL。
  6. API 密钥 下,输入你的其中一个 API 密钥。
  7. 单击 保存和测试,然后单击 运行

你的 LLM 连接器现在已配置。以下视频演示了这些步骤。