- Elasticsearch 指南其他版本
- 8.17 中的新功能
- Elasticsearch 基础
- 快速入门
- 设置 Elasticsearch
- 升级 Elasticsearch
- 索引模块
- 映射
- 文本分析
- 索引模板
- 数据流
- 摄取管道
- 别名
- 搜索您的数据
- 重新排名
- 查询 DSL
- 聚合
- 地理空间分析
- 连接器
- EQL
- ES|QL
- SQL
- 脚本
- 数据管理
- 自动缩放
- 监视集群
- 汇总或转换数据
- 设置高可用性集群
- 快照和还原
- 保护 Elastic Stack 的安全
- Watcher
- 命令行工具
- elasticsearch-certgen
- elasticsearch-certutil
- elasticsearch-create-enrollment-token
- elasticsearch-croneval
- elasticsearch-keystore
- elasticsearch-node
- elasticsearch-reconfigure-node
- elasticsearch-reset-password
- elasticsearch-saml-metadata
- elasticsearch-service-tokens
- elasticsearch-setup-passwords
- elasticsearch-shard
- elasticsearch-syskeygen
- elasticsearch-users
- 优化
- 故障排除
- 修复常见的集群问题
- 诊断未分配的分片
- 向系统中添加丢失的层
- 允许 Elasticsearch 在系统中分配数据
- 允许 Elasticsearch 分配索引
- 索引将索引分配过滤器与数据层节点角色混合,以在数据层之间移动
- 没有足够的节点来分配所有分片副本
- 单个节点上索引的分片总数已超过
- 每个节点的分片总数已达到
- 故障排除损坏
- 修复磁盘空间不足的数据节点
- 修复磁盘空间不足的主节点
- 修复磁盘空间不足的其他角色节点
- 启动索引生命周期管理
- 启动快照生命周期管理
- 从快照恢复
- 故障排除损坏的存储库
- 解决重复的快照策略失败问题
- 故障排除不稳定的集群
- 故障排除发现
- 故障排除监控
- 故障排除转换
- 故障排除 Watcher
- 故障排除搜索
- 故障排除分片容量健康问题
- 故障排除不平衡的集群
- 捕获诊断信息
- REST API
- API 约定
- 通用选项
- REST API 兼容性
- 自动缩放 API
- 行为分析 API
- 紧凑和对齐文本 (CAT) API
- 集群 API
- 跨集群复制 API
- 连接器 API
- 数据流 API
- 文档 API
- 丰富 API
- EQL API
- ES|QL API
- 功能 API
- Fleet API
- 图表探索 API
- 索引 API
- 别名是否存在
- 别名
- 分析
- 分析索引磁盘使用量
- 清除缓存
- 克隆索引
- 关闭索引
- 创建索引
- 创建或更新别名
- 创建或更新组件模板
- 创建或更新索引模板
- 创建或更新索引模板(旧版)
- 删除组件模板
- 删除悬挂索引
- 删除别名
- 删除索引
- 删除索引模板
- 删除索引模板(旧版)
- 存在
- 字段使用情况统计信息
- 刷新
- 强制合并
- 获取别名
- 获取组件模板
- 获取字段映射
- 获取索引
- 获取索引设置
- 获取索引模板
- 获取索引模板(旧版)
- 获取映射
- 导入悬挂索引
- 索引恢复
- 索引段
- 索引分片存储
- 索引统计信息
- 索引模板是否存在(旧版)
- 列出悬挂索引
- 打开索引
- 刷新
- 解析索引
- 解析集群
- 翻转
- 收缩索引
- 模拟索引
- 模拟模板
- 拆分索引
- 解冻索引
- 更新索引设置
- 更新映射
- 索引生命周期管理 API
- 推理 API
- 信息 API
- 摄取 API
- 许可 API
- Logstash API
- 机器学习 API
- 机器学习异常检测 API
- 机器学习数据帧分析 API
- 机器学习训练模型 API
- 迁移 API
- 节点生命周期 API
- 查询规则 API
- 重新加载搜索分析器 API
- 存储库计量 API
- 汇总 API
- 根 API
- 脚本 API
- 搜索 API
- 搜索应用程序 API
- 可搜索快照 API
- 安全 API
- 身份验证
- 更改密码
- 清除缓存
- 清除角色缓存
- 清除权限缓存
- 清除 API 密钥缓存
- 清除服务帐户令牌缓存
- 创建 API 密钥
- 创建或更新应用程序权限
- 创建或更新角色映射
- 创建或更新角色
- 批量创建或更新角色 API
- 批量删除角色 API
- 创建或更新用户
- 创建服务帐户令牌
- 委托 PKI 身份验证
- 删除应用程序权限
- 删除角色映射
- 删除角色
- 删除服务帐户令牌
- 删除用户
- 禁用用户
- 启用用户
- 注册 Kibana
- 注册节点
- 获取 API 密钥信息
- 获取应用程序权限
- 获取内置权限
- 获取角色映射
- 获取角色
- 查询角色
- 获取服务帐户
- 获取服务帐户凭据
- 获取安全设置
- 获取令牌
- 获取用户权限
- 获取用户
- 授予 API 密钥
- 具有权限
- 使 API 密钥失效
- 使令牌失效
- OpenID Connect 准备身份验证
- OpenID Connect 身份验证
- OpenID Connect 注销
- 查询 API 密钥信息
- 查询用户
- 更新 API 密钥
- 更新安全设置
- 批量更新 API 密钥
- SAML 准备身份验证
- SAML 身份验证
- SAML 注销
- SAML 失效
- SAML 完成注销
- SAML 服务提供商元数据
- SSL 证书
- 激活用户配置文件
- 禁用用户配置文件
- 启用用户配置文件
- 获取用户配置文件
- 建议用户配置文件
- 更新用户配置文件数据
- 具有用户配置文件权限
- 创建跨集群 API 密钥
- 更新跨集群 API 密钥
- 快照和还原 API
- 快照生命周期管理 API
- SQL API
- 同义词 API
- 文本结构 API
- 转换 API
- 使用情况 API
- Watcher API
- 定义
- 迁移指南
- 发行说明
- Elasticsearch 版本 8.17.0
- Elasticsearch 版本 8.16.1
- Elasticsearch 版本 8.16.0
- Elasticsearch 版本 8.15.5
- Elasticsearch 版本 8.15.4
- Elasticsearch 版本 8.15.3
- Elasticsearch 版本 8.15.2
- Elasticsearch 版本 8.15.1
- Elasticsearch 版本 8.15.0
- Elasticsearch 版本 8.14.3
- Elasticsearch 版本 8.14.2
- Elasticsearch 版本 8.14.1
- Elasticsearch 版本 8.14.0
- Elasticsearch 版本 8.13.4
- Elasticsearch 版本 8.13.3
- Elasticsearch 版本 8.13.2
- Elasticsearch 版本 8.13.1
- Elasticsearch 版本 8.13.0
- Elasticsearch 版本 8.12.2
- Elasticsearch 版本 8.12.1
- Elasticsearch 版本 8.12.0
- Elasticsearch 版本 8.11.4
- Elasticsearch 版本 8.11.3
- Elasticsearch 版本 8.11.2
- Elasticsearch 版本 8.11.1
- Elasticsearch 版本 8.11.0
- Elasticsearch 版本 8.10.4
- Elasticsearch 版本 8.10.3
- Elasticsearch 版本 8.10.2
- Elasticsearch 版本 8.10.1
- Elasticsearch 版本 8.10.0
- Elasticsearch 版本 8.9.2
- Elasticsearch 版本 8.9.1
- Elasticsearch 版本 8.9.0
- Elasticsearch 版本 8.8.2
- Elasticsearch 版本 8.8.1
- Elasticsearch 版本 8.8.0
- Elasticsearch 版本 8.7.1
- Elasticsearch 版本 8.7.0
- Elasticsearch 版本 8.6.2
- Elasticsearch 版本 8.6.1
- Elasticsearch 版本 8.6.0
- Elasticsearch 版本 8.5.3
- Elasticsearch 版本 8.5.2
- Elasticsearch 版本 8.5.1
- Elasticsearch 版本 8.5.0
- Elasticsearch 版本 8.4.3
- Elasticsearch 版本 8.4.2
- Elasticsearch 版本 8.4.1
- Elasticsearch 版本 8.4.0
- Elasticsearch 版本 8.3.3
- Elasticsearch 版本 8.3.2
- Elasticsearch 版本 8.3.1
- Elasticsearch 版本 8.3.0
- Elasticsearch 版本 8.2.3
- Elasticsearch 版本 8.2.2
- Elasticsearch 版本 8.2.1
- Elasticsearch 版本 8.2.0
- Elasticsearch 版本 8.1.3
- Elasticsearch 版本 8.1.2
- Elasticsearch 版本 8.1.1
- Elasticsearch 版本 8.1.0
- Elasticsearch 版本 8.0.1
- Elasticsearch 版本 8.0.0
- Elasticsearch 版本 8.0.0-rc2
- Elasticsearch 版本 8.0.0-rc1
- Elasticsearch 版本 8.0.0-beta1
- Elasticsearch 版本 8.0.0-alpha2
- Elasticsearch 版本 8.0.0-alpha1
- 依赖项和版本
Elasticsearch 推理服务
编辑Elasticsearch 推理服务
编辑创建一个推理端点,以使用 elasticsearch
服务执行推理任务。
如果您通过 elasticsearch
服务使用 ELSER 或 E5 模型,如果模型尚未下载,API 请求将自动下载并部署该模型。
请求
编辑PUT /_inference/<task_type>/<inference_id>
路径参数
编辑-
<inference_id>
- (必需,字符串)推理端点的唯一标识符。
-
<task_type>
-
(必需,字符串)模型将执行的推理任务的类型。
可用的任务类型
-
rerank
, -
sparse_embedding
, -
text_embedding
.
-
请求正文
编辑-
chunking_settings
-
(可选,对象)分块配置对象。请参阅配置分块以了解有关分块的更多信息。
-
max_chunking_size
- (可选,整数)指定分块中单词的最大大小。默认为
250
。此值不能高于300
或低于20
(对于sentence
策略)或10
(对于word
策略)。 -
overlap
- (可选,整数)仅适用于
word
分块策略。指定块的重叠单词数。默认为100
。此值不能高于max_chunking_size
的一半。 -
sentence_overlap
- (可选,整数)仅适用于
sentence
分块策略。指定块的重叠句子数。它可以是1
或0
。默认为1
。 -
strategy
- (可选,字符串)指定分块策略。它可以是
sentence
或word
。
-
-
service
- (必需,字符串)指定任务类型支持的服务类型。在本例中为
elasticsearch
。 -
service_settings
-
(必需,对象)用于安装推理模型的设置。
这些设置特定于
elasticsearch
服务。-
deployment_id
- (可选,字符串)现有训练模型部署的
deployment_id
。当使用deployment_id
时,model_id
是可选的。 -
adaptive_allocations
-
(可选,对象)自适应分配配置对象。如果启用,模型的分配数量将根据进程当前负载设置。当负载较高时,会自动创建一个新的模型分配(如果设置了,则尊重
max_number_of_allocations
的值)。当负载较低时,会自动删除模型分配(如果设置了,则尊重min_number_of_allocations
的值)。如果启用了adaptive_allocations
,请勿手动设置分配数量。-
enabled
- (可选,布尔值)如果为
true
,则启用adaptive_allocations
。默认为false
。 -
max_number_of_allocations
- (可选,整数)指定要缩放到的最大分配数量。如果设置,则必须大于或等于
min_number_of_allocations
。 -
min_number_of_allocations
- (可选,整数)指定要缩放到的最小分配数量。如果设置,则必须大于或等于
0
。如果未定义,则部署缩放到0
。
-
-
model_id
- (必需,字符串)用于推理任务的模型的名称。它可以是内置模型(例如,E5 的
.multilingual-e5-small
)的 ID,也可以是已经通过 Eland 上传的文本嵌入模型。 -
num_allocations
- (必需,整数)此模型在机器学习节点上分配的总数量。增加此值通常会提高吞吐量。如果启用了
adaptive_allocations
,请勿设置此值,因为它会自动设置。 -
num_threads
- (必需,整数)设置每个模型分配在推理期间使用的线程数。这通常会提高每个推理请求的速度。推理过程是一个计算密集型过程;
threads_per_allocations
不能超过每个节点可用的分配处理器数量。必须是 2 的幂。允许的最大值为 32。
-
-
task_settings
-
(可选,对象)配置推理任务的设置。这些设置特定于您指定的
<task_type>
。rerank
任务类型的task_settings
-
return_documents
- (可选,布尔值)返回文档而不是仅返回索引。默认为
true
。
-
通过 elasticsearch
服务的 ELSER
编辑以下示例显示如何创建名为 my-elser-model
的推理端点以执行 sparse_embedding
任务类型。
如果 ELSER 模型尚未下载,则以下 API 请求将自动下载 ELSER 模型,然后部署该模型。
const response = await client.inference.put({ task_type: "sparse_embedding", inference_id: "my-elser-model", inference_config: { service: "elasticsearch", service_settings: { adaptive_allocations: { enabled: true, min_number_of_allocations: 1, max_number_of_allocations: 4, }, num_threads: 1, model_id: ".elser_model_2", }, }, }); console.log(response);
PUT _inference/sparse_embedding/my-elser-model { "service": "elasticsearch", "service_settings": { "adaptive_allocations": { "enabled": true, "min_number_of_allocations": 1, "max_number_of_allocations": 4 }, "num_threads": 1, "model_id": ".elser_model_2" } }
自适应分配将被启用,最小分配数为 1,最大分配数为 10。 |
|
|
通过 elasticsearch
服务的 Elastic Rerank
编辑以下示例显示如何创建一个名为 my-elastic-rerank
的推理端点,以使用内置的 Elastic Rerank 交叉编码器模型执行 rerank
任务类型。
如果 Elastic Rerank 模型尚未下载,则以下 API 请求将自动下载该模型,然后部署该模型。部署后,该模型可用于使用 text_similarity_reranker
检索器进行语义重新排序。
const response = await client.inference.put({ task_type: "rerank", inference_id: "my-elastic-rerank", inference_config: { service: "elasticsearch", service_settings: { model_id: ".rerank-v1", num_threads: 1, adaptive_allocations: { enabled: true, min_number_of_allocations: 1, max_number_of_allocations: 4, }, }, }, }); console.log(response);
PUT _inference/rerank/my-elastic-rerank { "service": "elasticsearch", "service_settings": { "model_id": ".rerank-v1", "num_threads": 1, "adaptive_allocations": { "enabled": true, "min_number_of_allocations": 1, "max_number_of_allocations": 4 } } }
|
|
自适应分配将被启用,最小分配数为 1,最大分配数为 10。 |
通过 elasticsearch
服务的 E5
编辑以下示例显示如何创建一个名为 my-e5-model
的推理端点以执行 text_embedding
任务类型。
如果 E5 模型尚未下载,则以下 API 请求将自动下载 E5 模型,然后部署该模型。
resp = client.inference.put( task_type="text_embedding", inference_id="my-e5-model", inference_config={ "service": "elasticsearch", "service_settings": { "num_allocations": 1, "num_threads": 1, "model_id": ".multilingual-e5-small" } }, ) print(resp)
const response = await client.inference.put({ task_type: "text_embedding", inference_id: "my-e5-model", inference_config: { service: "elasticsearch", service_settings: { num_allocations: 1, num_threads: 1, model_id: ".multilingual-e5-small", }, }, }); console.log(response);
PUT _inference/text_embedding/my-e5-model { "service": "elasticsearch", "service_settings": { "num_allocations": 1, "num_threads": 1, "model_id": ".multilingual-e5-small" } }
|
使用 Kibana 控制台时,您可能会在响应中看到 502 错误网关错误。此错误通常仅反映超时,而模型在后台下载。您可以在机器学习 UI 中查看下载进度。如果使用 Python 客户端,则可以将 timeout
参数设置为更高的值。
通过 elasticsearch
服务通过 Eland 上传的模型
编辑以下示例显示如何创建一个名为 my-msmarco-minilm-model
的推理端点以执行 text_embedding
任务类型。
resp = client.inference.put( task_type="text_embedding", inference_id="my-msmarco-minilm-model", inference_config={ "service": "elasticsearch", "service_settings": { "num_allocations": 1, "num_threads": 1, "model_id": "msmarco-MiniLM-L12-cos-v5" } }, ) print(resp)
const response = await client.inference.put({ task_type: "text_embedding", inference_id: "my-msmarco-minilm-model", inference_config: { service: "elasticsearch", service_settings: { num_allocations: 1, num_threads: 1, model_id: "msmarco-MiniLM-L12-cos-v5", }, }, }); console.log(response);
PUT _inference/text_embedding/my-msmarco-minilm-model { "service": "elasticsearch", "service_settings": { "num_allocations": 1, "num_threads": 1, "model_id": "msmarco-MiniLM-L12-cos-v5" } }
为推理端点提供唯一标识符。 |
|
|
通过 elasticsearch
服务为 E5 设置自适应分配
编辑以下示例显示如何创建一个名为 my-e5-model
的推理端点以执行 text_embedding
任务类型并配置自适应分配。
如果 E5 模型尚未下载,则以下 API 请求将自动下载 E5 模型,然后部署该模型。
resp = client.inference.put( task_type="text_embedding", inference_id="my-e5-model", inference_config={ "service": "elasticsearch", "service_settings": { "adaptive_allocations": { "enabled": True, "min_number_of_allocations": 3, "max_number_of_allocations": 10 }, "num_threads": 1, "model_id": ".multilingual-e5-small" } }, ) print(resp)
const response = await client.inference.put({ task_type: "text_embedding", inference_id: "my-e5-model", inference_config: { service: "elasticsearch", service_settings: { adaptive_allocations: { enabled: true, min_number_of_allocations: 3, max_number_of_allocations: 10, }, num_threads: 1, model_id: ".multilingual-e5-small", }, }, }); console.log(response);
PUT _inference/text_embedding/my-e5-model { "service": "elasticsearch", "service_settings": { "adaptive_allocations": { "enabled": true, "min_number_of_allocations": 3, "max_number_of_allocations": 10 }, "num_threads": 1, "model_id": ".multilingual-e5-small" } }
通过 elasticsearch
服务使用现有的模型部署
编辑以下示例显示如何在创建推理端点时使用已存在的模型部署。
resp = client.inference.put( task_type="sparse_embedding", inference_id="use_existing_deployment", inference_config={ "service": "elasticsearch", "service_settings": { "deployment_id": ".elser_model_2" } }, ) print(resp)
const response = await client.inference.put({ task_type: "sparse_embedding", inference_id: "use_existing_deployment", inference_config: { service: "elasticsearch", service_settings: { deployment_id: ".elser_model_2", }, }, }); console.log(response);
PUT _inference/sparse_embedding/use_existing_deployment { "service": "elasticsearch", "service_settings": { "deployment_id": ".elser_model_2" } }
API 响应包含 model_id
以及模型部署中的线程和分配设置
{ "inference_id": "use_existing_deployment", "task_type": "sparse_embedding", "service": "elasticsearch", "service_settings": { "num_allocations": 2, "num_threads": 1, "model_id": ".elser_model_2", "deployment_id": ".elser_model_2" }, "chunking_settings": { "strategy": "sentence", "max_chunk_size": 250, "sentence_overlap": 1 } }
On this page