连接到 Azure OpenAI
编辑连接到 Azure OpenAI编辑
此页面提供了有关首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使您能够在 Kibana 中利用大型语言模型 (LLM)。您需要先配置 Azure,然后在 Kibana 中配置连接器。
配置 Azure编辑
配置部署编辑
首先,设置 Azure OpenAI 部署
- 登录到 Azure 控制台并搜索 Azure OpenAI。
- 在 Azure AI 服务 中,选择 创建.
- 对于 项目详细信息,请选择您的订阅和资源组。如果您没有资源组,请选择 创建新的 来创建一个。
- 对于 实例详细信息,选择所需的区域并指定一个名称,例如
example-deployment-openai
。 - 选择 标准 定价层,然后单击 下一步.
- 配置您的网络设置,单击 下一步,选择性地添加标签,然后单击 下一步.
- 查看您的部署设置,然后单击 创建。完成后,选择 转到资源.
以下视频演示了这些步骤。
配置密钥编辑
接下来,为部署创建访问密钥
- 在您的 Azure OpenAI 部署中,选择 单击此处管理密钥.
- 将您的密钥存储在安全位置。
以下视频演示了这些步骤。
配置模型编辑
现在,设置 Azure OpenAI 模型
- 在您的 Azure OpenAI 部署中,选择 模型部署,然后单击 管理部署.
- 在 部署 页面上,选择 创建新的部署.
-
在 选择模型 下,选择
gpt-4
或gpt-4-32k
。- 如果您选择
gpt-4
,请将 模型版本 设置为0125-Preview
。 -
如果您选择
gpt-4-32k
,请将 模型版本 设置为default
。您可以使用的模型取决于 区域可用性。为了获得最佳效果,请使用
GPT-4o 2024-05-13
,该模型具有最大的每分钟令牌 (TPM) 容量。有关不同模型在不同任务中的执行方式的更多信息,请参阅 大型语言模型性能矩阵.
- 如果您选择
- 在 部署类型 下,选择 标准.
- 命名您的部署。
- 将 每分钟令牌速率限制 滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。
- 单击 创建.
以下视频演示了这些步骤。
配置 Elastic AI 助手编辑
最后,在 Kibana 中配置连接器
- 登录到 Kibana。
- 转到 堆栈管理 → 连接器 → 创建连接器 → OpenAI.
- 为您的连接器命名,以帮助您跟踪不同的模型,例如
Azure OpenAI (GPT-4 Turbo v. 0125)
。 - 对于 选择 OpenAI 提供商,请选择 Azure OpenAI.
-
更新 URL 字段。我们建议您执行以下操作
- 导航到 Azure AI Studio 中的部署,然后选择 在 Playground 中打开。 聊天 Playground 屏幕显示。
- 选择 查看代码,然后从下拉菜单中,将 示例代码 更改为
Curl
。 - 突出显示并复制 URL(不带引号),然后将其粘贴到 Kibana 中的 URL 字段中。
- (可选)或者,请参阅 API 文档 以了解如何手动创建 URL。
- 在 API 密钥 下,输入您的一个 API 密钥。
- 单击 保存并测试,然后单击 运行.
您的 LLM 连接器现在已配置。以下视频演示了这些步骤。