连接 Azure OpenAI
编辑连接 Azure OpenAI
编辑此页面提供首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使您能够在 Kibana 中利用大型语言模型 (LLM)。您首先需要配置 Azure,然后在 Kibana 中配置连接器。
配置 Azure
编辑配置部署
编辑首先,设置 Azure OpenAI 部署
- 登录 Azure 控制台并搜索 Azure OpenAI。
- 在 Azure AI 服务 中,选择 创建。
- 对于 项目详细信息,选择您的订阅和资源组。如果您没有资源组,请选择 新建 来创建一个。
- 对于 实例详细信息,选择所需的区域并指定名称,例如
example-deployment-openai
。 - 选择 标准 定价层,然后单击 下一步。
- 配置您的网络设置,单击 下一步,可选地添加标签,然后单击 下一步。
- 查看您的部署设置,然后单击 创建。完成后,选择 转到资源。
以下视频演示了这些步骤。
配置密钥
编辑接下来,为部署创建访问密钥
- 在您的 Azure OpenAI 部署中,选择 单击此处管理密钥。
- 将您的密钥存储在安全的位置。
以下视频演示了这些步骤。
配置模型
编辑现在,设置 Azure OpenAI 模型
- 在您的 Azure OpenAI 部署中,选择 模型部署,然后单击 管理部署。
- 在 部署 页面上,选择 创建新部署。
- 在 选择模型 下,选择
gpt-4o
或gpt-4 turbo
。 -
将模型版本设置为“自动更新为默认”。
您可以使用的模型取决于 区域可用性。为了获得最佳效果,请使用
GPT-4o 2024-05-13
和最大的每分钟令牌数 (TPM) 容量。有关不同模型如何针对不同任务执行的更多信息,请参阅 大型语言模型性能矩阵。 - 在 部署类型 下,选择 标准。
- 命名您的部署。
- 将 每分钟令牌速率限制 滑块滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。
- 单击 创建。
以下视频演示了这些步骤。
配置 Elastic AI 助手
编辑最后,在 Kibana 中配置连接器
- 登录 Kibana。
- 在导航菜单中找到 连接器 页面,或使用 全局搜索字段。然后单击 创建连接器,并选择 OpenAI。
- 为您的连接器命名以帮助您跟踪不同的模型,例如
Azure OpenAI (GPT-4 Turbo v. 0125)
。 - 对于 选择 OpenAI 提供商,选择 Azure OpenAI。
-
更新 URL 字段。我们建议执行以下操作
- 导航到 Azure AI Studio 中的部署,然后选择 在 Playground 中打开。将显示 聊天 Playground 屏幕。
- 选择 查看代码,然后从下拉菜单中将 示例代码 更改为
Curl
。 - 突出显示并复制 URL(不带引号),然后将其粘贴到 Kibana 中的 URL 字段中。
- (可选)或者,请参阅 API 文档 以了解如何手动创建 URL。
- 在 API 密钥 下,输入您的 API 密钥之一。
- 单击 保存并测试,然后单击 运行。
您的 LLM 连接器现已配置。以下视频演示了这些步骤。