获取推理 API
编辑获取推理 API编辑
此功能处于技术预览阶段,可能在将来的版本中发生更改或删除。Elastic 将努力解决任何问题,但技术预览中的功能不受官方 GA 功能的支撑 SLA 的约束。
检索推理端点信息。
推理 API 使您能够使用某些服务,例如内置机器学习模型(ELSER、E5)、通过 Eland、Cohere、OpenAI 或 Hugging Face 上传的模型。对于内置模型和通过 Eland 上传的模型,推理 API 提供了一种使用和管理已训练模型的替代方法。但是,如果您不打算使用推理 API 来使用这些模型,或者您想使用非 NLP 模型,请使用 机器学习训练模型 API.
请求编辑
GET /_inference
GET /_inference/_all
GET /_inference/<inference_id>
GET /_inference/<task_type>/_all
GET /_inference/<task_type>/<inference_id>
先决条件编辑
- 需要
monitor_inference
集群权限(内置的inference_admin
和inference_user
角色授予此权限)
描述编辑
您可以在单个 API 请求中获取以下信息
- 通过提供任务类型和推理 ID,获取单个推理端点的信息,
- 通过提供任务类型和通配符表达式,获取特定任务类型的所有推理端点,
- 通过使用通配符表达式,获取所有推理端点。
路径参数编辑
-
<inference_id>
- (可选,字符串) 推理端点的唯一标识符。
-
<task_type>
- (可选,字符串) 模型执行的推理任务类型。
示例编辑
以下 API 调用检索有关可以执行 sparse_embedding
任务的 my-elser-model
推理模型的信息。
resp = client.inference.get_model( task_type="sparse_embedding", inference_id="my-elser-model", ) print(resp)
response = client.inference.get_model( task_type: 'sparse_embedding', inference_id: 'my-elser-model' ) puts response
GET _inference/sparse_embedding/my-elser-model
API 返回以下响应
{ "inference_id": "my-elser-model", "task_type": "sparse_embedding", "service": "elser", "service_settings": { "num_allocations": 1, "num_threads": 1 }, "task_settings": {} }