- Elasticsearch 指南其他版本
- 8.17 中的新功能
- Elasticsearch 基础
- 快速入门
- 设置 Elasticsearch
- 升级 Elasticsearch
- 索引模块
- 映射
- 文本分析
- 索引模板
- 数据流
- 摄取管道
- 别名
- 搜索您的数据
- 重新排名
- 查询 DSL
- 聚合
- 地理空间分析
- 连接器
- EQL
- ES|QL
- SQL
- 脚本
- 数据管理
- 自动缩放
- 监视集群
- 汇总或转换数据
- 设置高可用性集群
- 快照和还原
- 保护 Elastic Stack 的安全
- Watcher
- 命令行工具
- elasticsearch-certgen
- elasticsearch-certutil
- elasticsearch-create-enrollment-token
- elasticsearch-croneval
- elasticsearch-keystore
- elasticsearch-node
- elasticsearch-reconfigure-node
- elasticsearch-reset-password
- elasticsearch-saml-metadata
- elasticsearch-service-tokens
- elasticsearch-setup-passwords
- elasticsearch-shard
- elasticsearch-syskeygen
- elasticsearch-users
- 优化
- 故障排除
- 修复常见的集群问题
- 诊断未分配的分片
- 向系统中添加丢失的层
- 允许 Elasticsearch 在系统中分配数据
- 允许 Elasticsearch 分配索引
- 索引将索引分配过滤器与数据层节点角色混合,以在数据层之间移动
- 没有足够的节点来分配所有分片副本
- 单个节点上索引的分片总数已超过
- 每个节点的分片总数已达到
- 故障排除损坏
- 修复磁盘空间不足的数据节点
- 修复磁盘空间不足的主节点
- 修复磁盘空间不足的其他角色节点
- 启动索引生命周期管理
- 启动快照生命周期管理
- 从快照恢复
- 故障排除损坏的存储库
- 解决重复的快照策略失败问题
- 故障排除不稳定的集群
- 故障排除发现
- 故障排除监控
- 故障排除转换
- 故障排除 Watcher
- 故障排除搜索
- 故障排除分片容量健康问题
- 故障排除不平衡的集群
- 捕获诊断信息
- REST API
- API 约定
- 通用选项
- REST API 兼容性
- 自动缩放 API
- 行为分析 API
- 紧凑和对齐文本 (CAT) API
- 集群 API
- 跨集群复制 API
- 连接器 API
- 数据流 API
- 文档 API
- 丰富 API
- EQL API
- ES|QL API
- 功能 API
- Fleet API
- 图表探索 API
- 索引 API
- 别名是否存在
- 别名
- 分析
- 分析索引磁盘使用量
- 清除缓存
- 克隆索引
- 关闭索引
- 创建索引
- 创建或更新别名
- 创建或更新组件模板
- 创建或更新索引模板
- 创建或更新索引模板(旧版)
- 删除组件模板
- 删除悬挂索引
- 删除别名
- 删除索引
- 删除索引模板
- 删除索引模板(旧版)
- 存在
- 字段使用情况统计信息
- 刷新
- 强制合并
- 获取别名
- 获取组件模板
- 获取字段映射
- 获取索引
- 获取索引设置
- 获取索引模板
- 获取索引模板(旧版)
- 获取映射
- 导入悬挂索引
- 索引恢复
- 索引段
- 索引分片存储
- 索引统计信息
- 索引模板是否存在(旧版)
- 列出悬挂索引
- 打开索引
- 刷新
- 解析索引
- 解析集群
- 翻转
- 收缩索引
- 模拟索引
- 模拟模板
- 拆分索引
- 解冻索引
- 更新索引设置
- 更新映射
- 索引生命周期管理 API
- 推理 API
- 信息 API
- 摄取 API
- 许可 API
- Logstash API
- 机器学习 API
- 机器学习异常检测 API
- 机器学习数据帧分析 API
- 机器学习训练模型 API
- 迁移 API
- 节点生命周期 API
- 查询规则 API
- 重新加载搜索分析器 API
- 存储库计量 API
- 汇总 API
- 根 API
- 脚本 API
- 搜索 API
- 搜索应用程序 API
- 可搜索快照 API
- 安全 API
- 身份验证
- 更改密码
- 清除缓存
- 清除角色缓存
- 清除权限缓存
- 清除 API 密钥缓存
- 清除服务帐户令牌缓存
- 创建 API 密钥
- 创建或更新应用程序权限
- 创建或更新角色映射
- 创建或更新角色
- 批量创建或更新角色 API
- 批量删除角色 API
- 创建或更新用户
- 创建服务帐户令牌
- 委托 PKI 身份验证
- 删除应用程序权限
- 删除角色映射
- 删除角色
- 删除服务帐户令牌
- 删除用户
- 禁用用户
- 启用用户
- 注册 Kibana
- 注册节点
- 获取 API 密钥信息
- 获取应用程序权限
- 获取内置权限
- 获取角色映射
- 获取角色
- 查询角色
- 获取服务帐户
- 获取服务帐户凭据
- 获取安全设置
- 获取令牌
- 获取用户权限
- 获取用户
- 授予 API 密钥
- 具有权限
- 使 API 密钥失效
- 使令牌失效
- OpenID Connect 准备身份验证
- OpenID Connect 身份验证
- OpenID Connect 注销
- 查询 API 密钥信息
- 查询用户
- 更新 API 密钥
- 更新安全设置
- 批量更新 API 密钥
- SAML 准备身份验证
- SAML 身份验证
- SAML 注销
- SAML 失效
- SAML 完成注销
- SAML 服务提供商元数据
- SSL 证书
- 激活用户配置文件
- 禁用用户配置文件
- 启用用户配置文件
- 获取用户配置文件
- 建议用户配置文件
- 更新用户配置文件数据
- 具有用户配置文件权限
- 创建跨集群 API 密钥
- 更新跨集群 API 密钥
- 快照和还原 API
- 快照生命周期管理 API
- SQL API
- 同义词 API
- 文本结构 API
- 转换 API
- 使用情况 API
- Watcher API
- 定义
- 迁移指南
- 发行说明
- Elasticsearch 版本 8.17.0
- Elasticsearch 版本 8.16.1
- Elasticsearch 版本 8.16.0
- Elasticsearch 版本 8.15.5
- Elasticsearch 版本 8.15.4
- Elasticsearch 版本 8.15.3
- Elasticsearch 版本 8.15.2
- Elasticsearch 版本 8.15.1
- Elasticsearch 版本 8.15.0
- Elasticsearch 版本 8.14.3
- Elasticsearch 版本 8.14.2
- Elasticsearch 版本 8.14.1
- Elasticsearch 版本 8.14.0
- Elasticsearch 版本 8.13.4
- Elasticsearch 版本 8.13.3
- Elasticsearch 版本 8.13.2
- Elasticsearch 版本 8.13.1
- Elasticsearch 版本 8.13.0
- Elasticsearch 版本 8.12.2
- Elasticsearch 版本 8.12.1
- Elasticsearch 版本 8.12.0
- Elasticsearch 版本 8.11.4
- Elasticsearch 版本 8.11.3
- Elasticsearch 版本 8.11.2
- Elasticsearch 版本 8.11.1
- Elasticsearch 版本 8.11.0
- Elasticsearch 版本 8.10.4
- Elasticsearch 版本 8.10.3
- Elasticsearch 版本 8.10.2
- Elasticsearch 版本 8.10.1
- Elasticsearch 版本 8.10.0
- Elasticsearch 版本 8.9.2
- Elasticsearch 版本 8.9.1
- Elasticsearch 版本 8.9.0
- Elasticsearch 版本 8.8.2
- Elasticsearch 版本 8.8.1
- Elasticsearch 版本 8.8.0
- Elasticsearch 版本 8.7.1
- Elasticsearch 版本 8.7.0
- Elasticsearch 版本 8.6.2
- Elasticsearch 版本 8.6.1
- Elasticsearch 版本 8.6.0
- Elasticsearch 版本 8.5.3
- Elasticsearch 版本 8.5.2
- Elasticsearch 版本 8.5.1
- Elasticsearch 版本 8.5.0
- Elasticsearch 版本 8.4.3
- Elasticsearch 版本 8.4.2
- Elasticsearch 版本 8.4.1
- Elasticsearch 版本 8.4.0
- Elasticsearch 版本 8.3.3
- Elasticsearch 版本 8.3.2
- Elasticsearch 版本 8.3.1
- Elasticsearch 版本 8.3.0
- Elasticsearch 版本 8.2.3
- Elasticsearch 版本 8.2.2
- Elasticsearch 版本 8.2.1
- Elasticsearch 版本 8.2.0
- Elasticsearch 版本 8.1.3
- Elasticsearch 版本 8.1.2
- Elasticsearch 版本 8.1.1
- Elasticsearch 版本 8.1.0
- Elasticsearch 版本 8.0.1
- Elasticsearch 版本 8.0.0
- Elasticsearch 版本 8.0.0-rc2
- Elasticsearch 版本 8.0.0-rc1
- Elasticsearch 版本 8.0.0-beta1
- Elasticsearch 版本 8.0.0-alpha2
- Elasticsearch 版本 8.0.0-alpha1
- 依赖项和版本
教程:使用已部署的模型进行语义搜索
编辑教程:使用已部署的模型进行语义搜索
编辑- 要在 Elastic Stack 中执行语义搜索的最简单方法,请参阅
semantic_text
端到端教程。 - 本教程编写于 推理端点和
semantic_text
字段类型 引入之前。现在,我们有更简单的选项来进行语义搜索。
本指南向您展示如何使用部署在 Elasticsearch 中的模型来实现语义搜索:从选择 NLP 模型到编写查询。
选择 NLP 模型
编辑Elasticsearch 提供了 各种 NLP 模型 的使用,包括稠密和稀疏向量模型。您对语言模型的选择对于成功实现语义搜索至关重要。
虽然可以引入您自己的文本嵌入模型,但通过模型调整获得良好的搜索结果具有挑战性。从我们的第三方模型列表中选择合适的模型是第一步。在您自己的数据上训练模型对于确保比仅使用 BM25 获得更好的搜索结果至关重要。但是,模型训练过程需要一个数据科学家和 ML 专家团队,这使得它既昂贵又耗时。
为了解决这个问题,Elastic 提供了一个名为 Elastic Learned Sparse EncodeR (ELSER) 的预训练表示模型。ELSER 目前仅适用于英语,是一种开箱即用的稀疏向量模型,不需要进行微调。这种适应性使其适用于各种开箱即用的 NLP 用例。除非您有一个 ML 专家团队,否则强烈建议使用 ELSER 模型。
在稀疏向量表示的情况下,向量主要由零值组成,只有一小部分包含非零值。这种表示通常用于文本数据。在 ELSER 的情况下,索引中的每个文档和查询文本本身都由高维稀疏向量表示。向量的每个非零元素都对应于模型词汇表中的一个词。ELSER 词汇表包含大约 30000 个词,因此 ELSER 创建的稀疏向量包含大约 30000 个值,其中大部分为零。实际上,ELSER 模型正在将原始查询中的词替换为已学习存在于训练数据集中最匹配原始搜索词的文档中的其他词,并使用权重来控制每个词的重要性。
部署模型
编辑在您决定使用哪个模型来实现语义搜索后,您需要在 Elasticsearch 中部署该模型。
映射文本嵌入的字段
编辑在开始使用已部署的模型根据您的输入文本生成嵌入之前,您需要首先准备您的索引映射。索引的映射取决于模型的类型。
ELSER 从输入文本和查询中生成词元-权重对作为输出。Elasticsearch sparse_vector
字段类型可以将这些词元-权重对存储为数字特征向量。索引必须具有一个 sparse_vector
字段类型的字段,以索引 ELSER 生成的词元。
要为您的 ELSER 索引创建映射,请参阅本教程的 创建索引映射部分。该示例演示了如何为 my-index
创建索引映射,该映射将 my_embeddings.tokens
字段(其中将包含 ELSER 输出)定义为 sparse_vector
字段。
resp = client.indices.create( index="my-index", mappings={ "properties": { "my_tokens": { "type": "sparse_vector" }, "my_text_field": { "type": "text" } } }, ) print(resp)
response = client.indices.create( index: 'my-index', body: { mappings: { properties: { my_tokens: { type: 'sparse_vector' }, my_text_field: { type: 'text' } } } } ) puts response
const response = await client.indices.create({ index: "my-index", mappings: { properties: { my_tokens: { type: "sparse_vector", }, my_text_field: { type: "text", }, }, }, }); console.log(response);
与 Elasticsearch NLP 兼容的模型生成稠密向量作为输出。dense_vector
字段类型适合存储数值的稠密向量。索引必须具有一个 dense_vector
字段类型的字段,以索引您选择的支持的第三方模型生成的嵌入。请记住,该模型会生成具有一定维度的嵌入。必须使用 dims
选项配置具有相同维度数的 dense_vector
字段。请参阅相应的模型文档,以获取有关嵌入维度数的信息。
要查看 NLP 模型的索引映射,请参阅本教程的 将文本嵌入模型添加到摄取推理管道 部分中的映射代码片段。该示例演示了如何创建一个索引映射,该映射将 my_embeddings.predicted_value
字段(其中将包含模型输出)定义为 dense_vector
字段。
resp = client.indices.create( index="my-index", mappings={ "properties": { "my_embeddings.predicted_value": { "type": "dense_vector", "dims": 384 }, "my_text_field": { "type": "text" } } }, ) print(resp)
response = client.indices.create( index: 'my-index', body: { mappings: { properties: { 'my_embeddings.predicted_value' => { type: 'dense_vector', dims: 384 }, my_text_field: { type: 'text' } } } } ) puts response
const response = await client.indices.create({ index: "my-index", mappings: { properties: { "my_embeddings.predicted_value": { type: "dense_vector", dims: 384, }, my_text_field: { type: "text", }, }, }, }); console.log(response);
生成文本嵌入
编辑一旦您为索引创建了映射,就可以从您的输入文本生成文本嵌入。这可以通过使用具有 推理处理器的摄取管道来完成。摄取管道处理输入数据并将其索引到目标索引中。在索引时,推理摄取处理器使用经过训练的模型来推断通过管道摄取的数据。在使用推理处理器创建摄取管道后,您可以通过它摄取您的数据以生成模型输出。
以下是如何创建使用 ELSER 模型的摄取管道
resp = client.ingest.put_pipeline( id="my-text-embeddings-pipeline", description="Text embedding pipeline", processors=[ { "inference": { "model_id": ".elser_model_2", "input_output": [ { "input_field": "my_text_field", "output_field": "my_tokens" } ] } } ], ) print(resp)
response = client.ingest.put_pipeline( id: 'my-text-embeddings-pipeline', body: { description: 'Text embedding pipeline', processors: [ { inference: { model_id: '.elser_model_2', input_output: [ { input_field: 'my_text_field', output_field: 'my_tokens' } ] } } ] } ) puts response
const response = await client.ingest.putPipeline({ id: "my-text-embeddings-pipeline", description: "Text embedding pipeline", processors: [ { inference: { model_id: ".elser_model_2", input_output: [ { input_field: "my_text_field", output_field: "my_tokens", }, ], }, }, ], }); console.log(response);
PUT _ingest/pipeline/my-text-embeddings-pipeline { "description": "Text embedding pipeline", "processors": [ { "inference": { "model_id": ".elser_model_2", "input_output": [ { "input_field": "my_text_field", "output_field": "my_tokens" } ] } } ] }
要通过管道摄取数据以使用 ELSER 生成词元,请参阅本教程的 通过推理摄取管道摄取数据 部分。在使用管道成功摄取文档后,您的索引将包含 ELSER 生成的词元。词元是捕获相关性的学习关联,它们不是同义词。要了解有关词元的更多信息,请参阅 此页面。
以下是如何创建使用文本嵌入模型的摄取管道
resp = client.ingest.put_pipeline( id="my-text-embeddings-pipeline", description="Text embedding pipeline", processors=[ { "inference": { "model_id": "sentence-transformers__msmarco-minilm-l-12-v3", "target_field": "my_embeddings", "field_map": { "my_text_field": "text_field" } } } ], ) print(resp)
response = client.ingest.put_pipeline( id: 'my-text-embeddings-pipeline', body: { description: 'Text embedding pipeline', processors: [ { inference: { model_id: 'sentence-transformers__msmarco-minilm-l-12-v3', target_field: 'my_embeddings', field_map: { my_text_field: 'text_field' } } } ] } ) puts response
const response = await client.ingest.putPipeline({ id: "my-text-embeddings-pipeline", description: "Text embedding pipeline", processors: [ { inference: { model_id: "sentence-transformers__msmarco-minilm-l-12-v3", target_field: "my_embeddings", field_map: { my_text_field: "text_field", }, }, }, ], }); console.log(response);
PUT _ingest/pipeline/my-text-embeddings-pipeline { "description": "Text embedding pipeline", "processors": [ { "inference": { "model_id": "sentence-transformers__msmarco-minilm-l-12-v3", "target_field": "my_embeddings", "field_map": { "my_text_field": "text_field" } } } ] }
要通过管道摄取数据以使用您选择的模型生成文本嵌入,请参阅 将文本嵌入模型添加到推理摄取管道 部分。该示例演示了如何使用推理处理器创建管道,并通过管道重新索引您的数据。在使用管道成功摄取文档后,您的索引将包含模型生成的文本嵌入。
现在是执行语义搜索的时候了!
搜索数据
编辑根据您部署的模型类型,您可以使用 稀疏向量查询来查询排名特征,或使用 kNN 搜索来查询稠密向量。
可以使用 稀疏向量查询来查询 ELSER 文本嵌入。稀疏向量查询允许您通过提供与您要使用的 NLP 模型关联的推理 ID 和查询文本来查询 稀疏向量字段。
resp = client.search( index="my-index", query={ "sparse_vector": { "field": "my_tokens", "inference_id": "my-elser-endpoint", "query": "the query string" } }, ) print(resp)
const response = await client.search({ index: "my-index", query: { sparse_vector: { field: "my_tokens", inference_id: "my-elser-endpoint", query: "the query string", }, }, }); console.log(response);
GET my-index/_search { "query":{ "sparse_vector": { "field": "my_tokens", "inference_id": "my-elser-endpoint", "query": "the query string" } } }
可以使用 kNN 搜索来查询由稠密向量模型生成的文本嵌入。在 knn
子句中,提供稠密向量字段的名称,以及一个带有模型 ID 和查询文本的 query_vector_builder
子句。
resp = client.search( index="my-index", knn={ "field": "my_embeddings.predicted_value", "k": 10, "num_candidates": 100, "query_vector_builder": { "text_embedding": { "model_id": "sentence-transformers__msmarco-minilm-l-12-v3", "model_text": "the query string" } } }, ) print(resp)
response = client.search( index: 'my-index', body: { knn: { field: 'my_embeddings.predicted_value', k: 10, num_candidates: 100, query_vector_builder: { text_embedding: { model_id: 'sentence-transformers__msmarco-minilm-l-12-v3', model_text: 'the query string' } } } } ) puts response
const response = await client.search({ index: "my-index", knn: { field: "my_embeddings.predicted_value", k: 10, num_candidates: 100, query_vector_builder: { text_embedding: { model_id: "sentence-transformers__msmarco-minilm-l-12-v3", model_text: "the query string", }, }, }, }); console.log(response);
GET my-index/_search { "knn": { "field": "my_embeddings.predicted_value", "k": 10, "num_candidates": 100, "query_vector_builder": { "text_embedding": { "model_id": "sentence-transformers__msmarco-minilm-l-12-v3", "model_text": "the query string" } } } }
超越语义搜索的混合搜索
编辑在某些情况下,词法搜索可能比语义搜索表现更好。例如,当搜索单个词或 ID(如产品编号)时。
使用 倒数排名融合将语义搜索和词法搜索组合到一个混合搜索请求中,可以提供两全其美的效果。不仅如此,而且使用倒数排名融合的混合搜索通常已被证明表现更好。
语义查询和词法查询之间的混合搜索可以通过使用作为搜索请求一部分的 rrf
检索器来实现。为 rrf
检索器提供 standard
检索器形式的 sparse_vector
查询和全文查询。rrf
检索器使用 倒数排名融合来对排名靠前的文档进行排名。
resp = client.search( index="my-index", retriever={ "rrf": { "retrievers": [ { "standard": { "query": { "match": { "my_text_field": "the query string" } } } }, { "standard": { "query": { "sparse_vector": { "field": "my_tokens", "inference_id": "my-elser-endpoint", "query": "the query string" } } } } ] } }, ) print(resp)
const response = await client.search({ index: "my-index", retriever: { rrf: { retrievers: [ { standard: { query: { match: { my_text_field: "the query string", }, }, }, }, { standard: { query: { sparse_vector: { field: "my_tokens", inference_id: "my-elser-endpoint", query: "the query string", }, }, }, }, ], }, }, }); console.log(response);
GET my-index/_search { "retriever": { "rrf": { "retrievers": [ { "standard": { "query": { "match": { "my_text_field": "the query string" } } } }, { "standard": { "query": { "sparse_vector": { "field": "my_tokens", "inference_id": "my-elser-endpoint", "query": "the query string" } } } } ] } } }
语义查询和词法查询之间的混合搜索可以通过提供以下方式实现
- 使用 倒数排名融合对排名靠前的文档进行排名的
rrf
检索器 - 带有
query
子句的全文查询的子检索器形式的standard
检索器 - 带有查询稠密向量字段的 kNN 搜索的子检索器形式的
knn
检索器
resp = client.search( index="my-index", retriever={ "rrf": { "retrievers": [ { "standard": { "query": { "match": { "my_text_field": "the query string" } } } }, { "knn": { "field": "text_embedding.predicted_value", "k": 10, "num_candidates": 100, "query_vector_builder": { "text_embedding": { "model_id": "sentence-transformers__msmarco-minilm-l-12-v3", "model_text": "the query string" } } } } ] } }, ) print(resp)
const response = await client.search({ index: "my-index", retriever: { rrf: { retrievers: [ { standard: { query: { match: { my_text_field: "the query string", }, }, }, }, { knn: { field: "text_embedding.predicted_value", k: 10, num_candidates: 100, query_vector_builder: { text_embedding: { model_id: "sentence-transformers__msmarco-minilm-l-12-v3", model_text: "the query string", }, }, }, }, ], }, }, }); console.log(response);
GET my-index/_search { "retriever": { "rrf": { "retrievers": [ { "standard": { "query": { "match": { "my_text_field": "the query string" } } } }, { "knn": { "field": "text_embedding.predicted_value", "k": 10, "num_candidates": 100, "query_vector_builder": { "text_embedding": { "model_id": "sentence-transformers__msmarco-minilm-l-12-v3", "model_text": "the query string" } } } } ] } } }