- Elasticsearch 指南其他版本
- 8.17 中的新功能
- Elasticsearch 基础
- 快速入门
- 设置 Elasticsearch
- 升级 Elasticsearch
- 索引模块
- 映射
- 文本分析
- 索引模板
- 数据流
- 摄取管道
- 别名
- 搜索您的数据
- 重新排名
- 查询 DSL
- 聚合
- 地理空间分析
- 连接器
- EQL
- ES|QL
- SQL
- 脚本
- 数据管理
- 自动缩放
- 监视集群
- 汇总或转换数据
- 设置高可用性集群
- 快照和还原
- 保护 Elastic Stack 的安全
- Watcher
- 命令行工具
- elasticsearch-certgen
- elasticsearch-certutil
- elasticsearch-create-enrollment-token
- elasticsearch-croneval
- elasticsearch-keystore
- elasticsearch-node
- elasticsearch-reconfigure-node
- elasticsearch-reset-password
- elasticsearch-saml-metadata
- elasticsearch-service-tokens
- elasticsearch-setup-passwords
- elasticsearch-shard
- elasticsearch-syskeygen
- elasticsearch-users
- 优化
- 故障排除
- 修复常见的集群问题
- 诊断未分配的分片
- 向系统中添加丢失的层
- 允许 Elasticsearch 在系统中分配数据
- 允许 Elasticsearch 分配索引
- 索引将索引分配过滤器与数据层节点角色混合,以在数据层之间移动
- 没有足够的节点来分配所有分片副本
- 单个节点上索引的分片总数已超过
- 每个节点的分片总数已达到
- 故障排除损坏
- 修复磁盘空间不足的数据节点
- 修复磁盘空间不足的主节点
- 修复磁盘空间不足的其他角色节点
- 启动索引生命周期管理
- 启动快照生命周期管理
- 从快照恢复
- 故障排除损坏的存储库
- 解决重复的快照策略失败问题
- 故障排除不稳定的集群
- 故障排除发现
- 故障排除监控
- 故障排除转换
- 故障排除 Watcher
- 故障排除搜索
- 故障排除分片容量健康问题
- 故障排除不平衡的集群
- 捕获诊断信息
- REST API
- API 约定
- 通用选项
- REST API 兼容性
- 自动缩放 API
- 行为分析 API
- 紧凑和对齐文本 (CAT) API
- 集群 API
- 跨集群复制 API
- 连接器 API
- 数据流 API
- 文档 API
- 丰富 API
- EQL API
- ES|QL API
- 功能 API
- Fleet API
- 图表探索 API
- 索引 API
- 别名是否存在
- 别名
- 分析
- 分析索引磁盘使用量
- 清除缓存
- 克隆索引
- 关闭索引
- 创建索引
- 创建或更新别名
- 创建或更新组件模板
- 创建或更新索引模板
- 创建或更新索引模板(旧版)
- 删除组件模板
- 删除悬挂索引
- 删除别名
- 删除索引
- 删除索引模板
- 删除索引模板(旧版)
- 存在
- 字段使用情况统计信息
- 刷新
- 强制合并
- 获取别名
- 获取组件模板
- 获取字段映射
- 获取索引
- 获取索引设置
- 获取索引模板
- 获取索引模板(旧版)
- 获取映射
- 导入悬挂索引
- 索引恢复
- 索引段
- 索引分片存储
- 索引统计信息
- 索引模板是否存在(旧版)
- 列出悬挂索引
- 打开索引
- 刷新
- 解析索引
- 解析集群
- 翻转
- 收缩索引
- 模拟索引
- 模拟模板
- 拆分索引
- 解冻索引
- 更新索引设置
- 更新映射
- 索引生命周期管理 API
- 推理 API
- 信息 API
- 摄取 API
- 许可 API
- Logstash API
- 机器学习 API
- 机器学习异常检测 API
- 机器学习数据帧分析 API
- 机器学习训练模型 API
- 迁移 API
- 节点生命周期 API
- 查询规则 API
- 重新加载搜索分析器 API
- 存储库计量 API
- 汇总 API
- 根 API
- 脚本 API
- 搜索 API
- 搜索应用程序 API
- 可搜索快照 API
- 安全 API
- 身份验证
- 更改密码
- 清除缓存
- 清除角色缓存
- 清除权限缓存
- 清除 API 密钥缓存
- 清除服务帐户令牌缓存
- 创建 API 密钥
- 创建或更新应用程序权限
- 创建或更新角色映射
- 创建或更新角色
- 批量创建或更新角色 API
- 批量删除角色 API
- 创建或更新用户
- 创建服务帐户令牌
- 委托 PKI 身份验证
- 删除应用程序权限
- 删除角色映射
- 删除角色
- 删除服务帐户令牌
- 删除用户
- 禁用用户
- 启用用户
- 注册 Kibana
- 注册节点
- 获取 API 密钥信息
- 获取应用程序权限
- 获取内置权限
- 获取角色映射
- 获取角色
- 查询角色
- 获取服务帐户
- 获取服务帐户凭据
- 获取安全设置
- 获取令牌
- 获取用户权限
- 获取用户
- 授予 API 密钥
- 具有权限
- 使 API 密钥失效
- 使令牌失效
- OpenID Connect 准备身份验证
- OpenID Connect 身份验证
- OpenID Connect 注销
- 查询 API 密钥信息
- 查询用户
- 更新 API 密钥
- 更新安全设置
- 批量更新 API 密钥
- SAML 准备身份验证
- SAML 身份验证
- SAML 注销
- SAML 失效
- SAML 完成注销
- SAML 服务提供商元数据
- SSL 证书
- 激活用户配置文件
- 禁用用户配置文件
- 启用用户配置文件
- 获取用户配置文件
- 建议用户配置文件
- 更新用户配置文件数据
- 具有用户配置文件权限
- 创建跨集群 API 密钥
- 更新跨集群 API 密钥
- 快照和还原 API
- 快照生命周期管理 API
- SQL API
- 同义词 API
- 文本结构 API
- 转换 API
- 使用情况 API
- Watcher API
- 定义
- 迁移指南
- 发行说明
- Elasticsearch 版本 8.17.0
- Elasticsearch 版本 8.16.1
- Elasticsearch 版本 8.16.0
- Elasticsearch 版本 8.15.5
- Elasticsearch 版本 8.15.4
- Elasticsearch 版本 8.15.3
- Elasticsearch 版本 8.15.2
- Elasticsearch 版本 8.15.1
- Elasticsearch 版本 8.15.0
- Elasticsearch 版本 8.14.3
- Elasticsearch 版本 8.14.2
- Elasticsearch 版本 8.14.1
- Elasticsearch 版本 8.14.0
- Elasticsearch 版本 8.13.4
- Elasticsearch 版本 8.13.3
- Elasticsearch 版本 8.13.2
- Elasticsearch 版本 8.13.1
- Elasticsearch 版本 8.13.0
- Elasticsearch 版本 8.12.2
- Elasticsearch 版本 8.12.1
- Elasticsearch 版本 8.12.0
- Elasticsearch 版本 8.11.4
- Elasticsearch 版本 8.11.3
- Elasticsearch 版本 8.11.2
- Elasticsearch 版本 8.11.1
- Elasticsearch 版本 8.11.0
- Elasticsearch 版本 8.10.4
- Elasticsearch 版本 8.10.3
- Elasticsearch 版本 8.10.2
- Elasticsearch 版本 8.10.1
- Elasticsearch 版本 8.10.0
- Elasticsearch 版本 8.9.2
- Elasticsearch 版本 8.9.1
- Elasticsearch 版本 8.9.0
- Elasticsearch 版本 8.8.2
- Elasticsearch 版本 8.8.1
- Elasticsearch 版本 8.8.0
- Elasticsearch 版本 8.7.1
- Elasticsearch 版本 8.7.0
- Elasticsearch 版本 8.6.2
- Elasticsearch 版本 8.6.1
- Elasticsearch 版本 8.6.0
- Elasticsearch 版本 8.5.3
- Elasticsearch 版本 8.5.2
- Elasticsearch 版本 8.5.1
- Elasticsearch 版本 8.5.0
- Elasticsearch 版本 8.4.3
- Elasticsearch 版本 8.4.2
- Elasticsearch 版本 8.4.1
- Elasticsearch 版本 8.4.0
- Elasticsearch 版本 8.3.3
- Elasticsearch 版本 8.3.2
- Elasticsearch 版本 8.3.1
- Elasticsearch 版本 8.3.0
- Elasticsearch 版本 8.2.3
- Elasticsearch 版本 8.2.2
- Elasticsearch 版本 8.2.1
- Elasticsearch 版本 8.2.0
- Elasticsearch 版本 8.1.3
- Elasticsearch 版本 8.1.2
- Elasticsearch 版本 8.1.1
- Elasticsearch 版本 8.1.0
- Elasticsearch 版本 8.0.1
- Elasticsearch 版本 8.0.0
- Elasticsearch 版本 8.0.0-rc2
- Elasticsearch 版本 8.0.0-rc1
- Elasticsearch 版本 8.0.0-beta1
- Elasticsearch 版本 8.0.0-alpha2
- Elasticsearch 版本 8.0.0-alpha1
- 依赖项和版本
更多相似查询
编辑更多相似查询
编辑“更多相似查询” 查找与给定的一组文档“相似”的文档。 为了实现这一点,MLT 会选择这些输入文档的一组代表性术语,使用这些术语形成查询,执行查询并返回结果。 用户可以控制输入文档、如何选择术语以及如何形成查询。
最简单的用例是请求与提供的文本片段相似的文档。 在这里,我们要求所有电影在其“title”和“description”字段中具有与“Once upon a time”类似的文本,并将所选术语的数量限制为 12 个。
resp = client.search( query={ "more_like_this": { "fields": [ "title", "description" ], "like": "Once upon a time", "min_term_freq": 1, "max_query_terms": 12 } }, ) print(resp)
response = client.search( body: { query: { more_like_this: { fields: [ 'title', 'description' ], like: 'Once upon a time', min_term_freq: 1, max_query_terms: 12 } } } ) puts response
const response = await client.search({ query: { more_like_this: { fields: ["title", "description"], like: "Once upon a time", min_term_freq: 1, max_query_terms: 12, }, }, }); console.log(response);
GET /_search { "query": { "more_like_this" : { "fields" : ["title", "description"], "like" : "Once upon a time", "min_term_freq" : 1, "max_query_terms" : 12 } } }
更复杂的用例是将文本与索引中已存在的文档混合使用。 在这种情况下,指定文档的语法类似于 Multi GET API 中使用的语法。
resp = client.search( query={ "more_like_this": { "fields": [ "title", "description" ], "like": [ { "_index": "imdb", "_id": "1" }, { "_index": "imdb", "_id": "2" }, "and potentially some more text here as well" ], "min_term_freq": 1, "max_query_terms": 12 } }, ) print(resp)
response = client.search( body: { query: { more_like_this: { fields: [ 'title', 'description' ], like: [ { _index: 'imdb', _id: '1' }, { _index: 'imdb', _id: '2' }, 'and potentially some more text here as well' ], min_term_freq: 1, max_query_terms: 12 } } } ) puts response
const response = await client.search({ query: { more_like_this: { fields: ["title", "description"], like: [ { _index: "imdb", _id: "1", }, { _index: "imdb", _id: "2", }, "and potentially some more text here as well", ], min_term_freq: 1, max_query_terms: 12, }, }, }); console.log(response);
GET /_search { "query": { "more_like_this": { "fields": [ "title", "description" ], "like": [ { "_index": "imdb", "_id": "1" }, { "_index": "imdb", "_id": "2" }, "and potentially some more text here as well" ], "min_term_freq": 1, "max_query_terms": 12 } } }
最后,用户可以混合使用一些文本、选定的一组文档,还可以提供不一定存在于索引中的文档。 为了提供索引中不存在的文档,其语法类似于 人工文档。
resp = client.search( query={ "more_like_this": { "fields": [ "name.first", "name.last" ], "like": [ { "_index": "marvel", "doc": { "name": { "first": "Ben", "last": "Grimm" }, "_doc": "You got no idea what I'd... what I'd give to be invisible." } }, { "_index": "marvel", "_id": "2" } ], "min_term_freq": 1, "max_query_terms": 12 } }, ) print(resp)
response = client.search( body: { query: { more_like_this: { fields: [ 'name.first', 'name.last' ], like: [ { _index: 'marvel', doc: { name: { first: 'Ben', last: 'Grimm' }, _doc: "You got no idea what I'd... what I'd give to be invisible." } }, { _index: 'marvel', _id: '2' } ], min_term_freq: 1, max_query_terms: 12 } } } ) puts response
const response = await client.search({ query: { more_like_this: { fields: ["name.first", "name.last"], like: [ { _index: "marvel", doc: { name: { first: "Ben", last: "Grimm", }, _doc: "You got no idea what I'd... what I'd give to be invisible.", }, }, { _index: "marvel", _id: "2", }, ], min_term_freq: 1, max_query_terms: 12, }, }, }); console.log(response);
GET /_search { "query": { "more_like_this": { "fields": [ "name.first", "name.last" ], "like": [ { "_index": "marvel", "doc": { "name": { "first": "Ben", "last": "Grimm" }, "_doc": "You got no idea what I'd... what I'd give to be invisible." } }, { "_index": "marvel", "_id": "2" } ], "min_term_freq": 1, "max_query_terms": 12 } } }
工作原理
编辑假设我们想找到所有与给定输入文档相似的文档。 显然,输入文档本身应该是该类型查询的最佳匹配项。 根据 Lucene 评分公式,主要原因将是具有最高 tf-idf 的术语。 因此,输入文档中具有最高 tf-idf 的术语是该文档的良好代表,可以在析取查询(或 OR
)中使用以检索相似的文档。 MLT 查询只是从输入文档中提取文本,对其进行分析(通常使用字段中的相同分析器),然后选择具有最高 tf-idf 的前 K 个术语来形成这些术语的析取查询。
执行 MLT 的字段必须已索引,且类型为 text
或 keyword
。 此外,当将 like
与文档一起使用时,必须启用 _source
,或者这些字段必须是 stored
或存储 term_vector
。 为了加快分析速度,在索引时存储词向量可能会有所帮助。
例如,如果我们希望在“title”和“tags.raw”字段上执行 MLT,我们可以显式地在索引时存储它们的 term_vector
。 我们仍然可以在“description”和“tags”字段上执行 MLT,因为默认情况下启用了 _source
,但这些字段的分析速度不会加快。
resp = client.indices.create( index="imdb", mappings={ "properties": { "title": { "type": "text", "term_vector": "yes" }, "description": { "type": "text" }, "tags": { "type": "text", "fields": { "raw": { "type": "text", "analyzer": "keyword", "term_vector": "yes" } } } } }, ) print(resp)
response = client.indices.create( index: 'imdb', body: { mappings: { properties: { title: { type: 'text', term_vector: 'yes' }, description: { type: 'text' }, tags: { type: 'text', fields: { raw: { type: 'text', analyzer: 'keyword', term_vector: 'yes' } } } } } } ) puts response
const response = await client.indices.create({ index: "imdb", mappings: { properties: { title: { type: "text", term_vector: "yes", }, description: { type: "text", }, tags: { type: "text", fields: { raw: { type: "text", analyzer: "keyword", term_vector: "yes", }, }, }, }, }, }); console.log(response);
PUT /imdb { "mappings": { "properties": { "title": { "type": "text", "term_vector": "yes" }, "description": { "type": "text" }, "tags": { "type": "text", "fields": { "raw": { "type": "text", "analyzer": "keyword", "term_vector": "yes" } } } } } }
参数
编辑唯一必需的参数是 like
,所有其他参数都有合理的默认值。 参数有三种类型:一种用于指定文档输入,另一种用于术语选择和查询形成。
文档输入参数
编辑
|
MLT 查询唯一必需的参数是 |
|
|
|
用于提取和分析文本的字段列表。 默认为 |
术语选择参数
编辑
|
将选择的最大查询术语数。 增加此值可以提高准确性,但会牺牲查询执行速度。 默认为 |
|
输入文档中将忽略的术语的最小词频。 默认为 |
|
输入文档中将忽略的术语的最小文档频率。 默认为 |
|
输入文档中将忽略的术语的最大文档频率。 这可能有助于忽略高频词,例如停用词。 默认为无界限 ( |
|
将忽略的术语的最小字长。 默认为 |
|
将忽略的术语的最大字长。 默认为无界限 ( |
|
停用词数组。 此集合中的任何词都被认为是“无趣的”并被忽略。 如果分析器允许停用词,您可能需要告诉 MLT 显式忽略它们,因为就文档相似性而言,假设“停用词永远不有趣”似乎是合理的。 |
|
用于分析自由格式文本的分析器。 默认为与 |
查询形成参数
编辑
|
在形成析取查询后,此参数控制必须匹配的术语数。 语法与 minimum should match 相同。(默认为 |
|
控制当任何指定的字段不是支持的类型( |
|
形成的查询中的每个术语都可以通过其 tf-idf 分数进一步提升。 这设置了使用此功能时要使用的提升因子。 默认为停用 ( |
|
指定是否应将输入文档也包含在返回的搜索结果中。 默认为 |
|
设置整个查询的提升值。 默认为 |