连接到 Azure OpenAI
Elastic Stack Serverless Security
此页面提供了首次设置 Azure OpenAI 连接器的分步说明。此连接器类型使您能够在 Kibana 中利用大型语言模型 (LLM)。您首先需要配置 Azure,然后在 Kibana 中配置连接器。
首先,设置 Azure OpenAI 部署
- 登录到 Azure 控制台并搜索 Azure OpenAI。
- 在Azure AI 服务中,选择创建。
- 对于项目详细信息,选择您的订阅和资源组。如果您没有资源组,请选择新建来创建一个。
- 对于实例详细信息,选择所需的区域并指定名称,例如
example-deployment-openai
。 - 选择标准定价层,然后单击下一步。
- 配置您的网络设置,单击下一步,可以选择添加标签,然后单击下一步。
- 查看您的部署设置,然后单击创建。完成后,选择转到资源。
以下视频演示了这些步骤(点击观看)。
接下来,为部署创建访问密钥
- 在您的 Azure OpenAI 部署中,选择单击此处以管理密钥。
- 将您的密钥存储在安全的位置。
以下视频演示了这些步骤(点击观看)。
现在,设置 Azure OpenAI 模型
在您的 Azure OpenAI 部署中,选择模型部署,然后单击管理部署。
在部署页面上,选择创建新部署。
在选择模型下,选择
gpt-4o
或gpt-4 turbo
。将模型版本设置为“自动更新为默认”。
重要提示您可以使用的模型取决于区域可用性。为了获得最佳效果,请使用
GPT-4o 2024-05-13
并尽可能提高每分钟令牌数 (TPM) 容量。有关不同模型在不同任务中的表现的更多信息,请参阅大型语言模型性能矩阵。在部署类型下,选择标准。
命名您的部署。
将每分钟令牌数速率限制滑动到最大值。以下示例支持 80,000 TPM,但其他区域可能支持更高的限制。
单击创建。
以下视频演示了这些步骤(点击观看)。
最后,在 Kibana 中配置连接器
登录到 Kibana。
在导航菜单中找到连接器页面,或使用全局搜索字段。然后单击创建连接器,并选择 OpenAI。
为您的连接器命名,以帮助您跟踪不同的模型,例如
Azure OpenAI (GPT-4 Turbo v. 0125)
。对于选择 OpenAI 提供商,选择 Azure OpenAI。
更新 URL 字段。我们建议执行以下操作
- 导航到 Azure AI Studio 中的部署并选择在 Playground 中打开。将显示聊天 Playground 屏幕。
- 选择查看代码,然后从下拉菜单中,将示例代码更改为
Curl
。 - 突出显示并复制不带引号的 URL,然后将其粘贴到 Kibana 中的 URL 字段中。
- (可选)或者,请参阅 API 文档,了解如何手动创建 URL。
在 API 密钥下,输入您的 API 密钥之一。
单击保存并测试,然后单击运行。
您的 LLM 连接器现已配置完成。以下视频演示了这些步骤(点击观看)。