- Elasticsearch 指南其他版本
- 8.17 中的新功能
- Elasticsearch 基础
- 快速入门
- 设置 Elasticsearch
- 升级 Elasticsearch
- 索引模块
- 映射
- 文本分析
- 索引模板
- 数据流
- 摄取管道
- 别名
- 搜索您的数据
- 重新排名
- 查询 DSL
- 聚合
- 地理空间分析
- 连接器
- EQL
- ES|QL
- SQL
- 脚本
- 数据管理
- 自动缩放
- 监视集群
- 汇总或转换数据
- 设置高可用性集群
- 快照和还原
- 保护 Elastic Stack 的安全
- Watcher
- 命令行工具
- elasticsearch-certgen
- elasticsearch-certutil
- elasticsearch-create-enrollment-token
- elasticsearch-croneval
- elasticsearch-keystore
- elasticsearch-node
- elasticsearch-reconfigure-node
- elasticsearch-reset-password
- elasticsearch-saml-metadata
- elasticsearch-service-tokens
- elasticsearch-setup-passwords
- elasticsearch-shard
- elasticsearch-syskeygen
- elasticsearch-users
- 优化
- 故障排除
- 修复常见的集群问题
- 诊断未分配的分片
- 向系统中添加丢失的层
- 允许 Elasticsearch 在系统中分配数据
- 允许 Elasticsearch 分配索引
- 索引将索引分配过滤器与数据层节点角色混合,以在数据层之间移动
- 没有足够的节点来分配所有分片副本
- 单个节点上索引的分片总数已超过
- 每个节点的分片总数已达到
- 故障排除损坏
- 修复磁盘空间不足的数据节点
- 修复磁盘空间不足的主节点
- 修复磁盘空间不足的其他角色节点
- 启动索引生命周期管理
- 启动快照生命周期管理
- 从快照恢复
- 故障排除损坏的存储库
- 解决重复的快照策略失败问题
- 故障排除不稳定的集群
- 故障排除发现
- 故障排除监控
- 故障排除转换
- 故障排除 Watcher
- 故障排除搜索
- 故障排除分片容量健康问题
- 故障排除不平衡的集群
- 捕获诊断信息
- REST API
- API 约定
- 通用选项
- REST API 兼容性
- 自动缩放 API
- 行为分析 API
- 紧凑和对齐文本 (CAT) API
- 集群 API
- 跨集群复制 API
- 连接器 API
- 数据流 API
- 文档 API
- 丰富 API
- EQL API
- ES|QL API
- 功能 API
- Fleet API
- 图表探索 API
- 索引 API
- 别名是否存在
- 别名
- 分析
- 分析索引磁盘使用量
- 清除缓存
- 克隆索引
- 关闭索引
- 创建索引
- 创建或更新别名
- 创建或更新组件模板
- 创建或更新索引模板
- 创建或更新索引模板(旧版)
- 删除组件模板
- 删除悬挂索引
- 删除别名
- 删除索引
- 删除索引模板
- 删除索引模板(旧版)
- 存在
- 字段使用情况统计信息
- 刷新
- 强制合并
- 获取别名
- 获取组件模板
- 获取字段映射
- 获取索引
- 获取索引设置
- 获取索引模板
- 获取索引模板(旧版)
- 获取映射
- 导入悬挂索引
- 索引恢复
- 索引段
- 索引分片存储
- 索引统计信息
- 索引模板是否存在(旧版)
- 列出悬挂索引
- 打开索引
- 刷新
- 解析索引
- 解析集群
- 翻转
- 收缩索引
- 模拟索引
- 模拟模板
- 拆分索引
- 解冻索引
- 更新索引设置
- 更新映射
- 索引生命周期管理 API
- 推理 API
- 信息 API
- 摄取 API
- 许可 API
- Logstash API
- 机器学习 API
- 机器学习异常检测 API
- 机器学习数据帧分析 API
- 机器学习训练模型 API
- 迁移 API
- 节点生命周期 API
- 查询规则 API
- 重新加载搜索分析器 API
- 存储库计量 API
- 汇总 API
- 根 API
- 脚本 API
- 搜索 API
- 搜索应用程序 API
- 可搜索快照 API
- 安全 API
- 身份验证
- 更改密码
- 清除缓存
- 清除角色缓存
- 清除权限缓存
- 清除 API 密钥缓存
- 清除服务帐户令牌缓存
- 创建 API 密钥
- 创建或更新应用程序权限
- 创建或更新角色映射
- 创建或更新角色
- 批量创建或更新角色 API
- 批量删除角色 API
- 创建或更新用户
- 创建服务帐户令牌
- 委托 PKI 身份验证
- 删除应用程序权限
- 删除角色映射
- 删除角色
- 删除服务帐户令牌
- 删除用户
- 禁用用户
- 启用用户
- 注册 Kibana
- 注册节点
- 获取 API 密钥信息
- 获取应用程序权限
- 获取内置权限
- 获取角色映射
- 获取角色
- 查询角色
- 获取服务帐户
- 获取服务帐户凭据
- 获取安全设置
- 获取令牌
- 获取用户权限
- 获取用户
- 授予 API 密钥
- 具有权限
- 使 API 密钥失效
- 使令牌失效
- OpenID Connect 准备身份验证
- OpenID Connect 身份验证
- OpenID Connect 注销
- 查询 API 密钥信息
- 查询用户
- 更新 API 密钥
- 更新安全设置
- 批量更新 API 密钥
- SAML 准备身份验证
- SAML 身份验证
- SAML 注销
- SAML 失效
- SAML 完成注销
- SAML 服务提供商元数据
- SSL 证书
- 激活用户配置文件
- 禁用用户配置文件
- 启用用户配置文件
- 获取用户配置文件
- 建议用户配置文件
- 更新用户配置文件数据
- 具有用户配置文件权限
- 创建跨集群 API 密钥
- 更新跨集群 API 密钥
- 快照和还原 API
- 快照生命周期管理 API
- SQL API
- 同义词 API
- 文本结构 API
- 转换 API
- 使用情况 API
- Watcher API
- 定义
- 迁移指南
- 发行说明
- Elasticsearch 版本 8.17.0
- Elasticsearch 版本 8.16.1
- Elasticsearch 版本 8.16.0
- Elasticsearch 版本 8.15.5
- Elasticsearch 版本 8.15.4
- Elasticsearch 版本 8.15.3
- Elasticsearch 版本 8.15.2
- Elasticsearch 版本 8.15.1
- Elasticsearch 版本 8.15.0
- Elasticsearch 版本 8.14.3
- Elasticsearch 版本 8.14.2
- Elasticsearch 版本 8.14.1
- Elasticsearch 版本 8.14.0
- Elasticsearch 版本 8.13.4
- Elasticsearch 版本 8.13.3
- Elasticsearch 版本 8.13.2
- Elasticsearch 版本 8.13.1
- Elasticsearch 版本 8.13.0
- Elasticsearch 版本 8.12.2
- Elasticsearch 版本 8.12.1
- Elasticsearch 版本 8.12.0
- Elasticsearch 版本 8.11.4
- Elasticsearch 版本 8.11.3
- Elasticsearch 版本 8.11.2
- Elasticsearch 版本 8.11.1
- Elasticsearch 版本 8.11.0
- Elasticsearch 版本 8.10.4
- Elasticsearch 版本 8.10.3
- Elasticsearch 版本 8.10.2
- Elasticsearch 版本 8.10.1
- Elasticsearch 版本 8.10.0
- Elasticsearch 版本 8.9.2
- Elasticsearch 版本 8.9.1
- Elasticsearch 版本 8.9.0
- Elasticsearch 版本 8.8.2
- Elasticsearch 版本 8.8.1
- Elasticsearch 版本 8.8.0
- Elasticsearch 版本 8.7.1
- Elasticsearch 版本 8.7.0
- Elasticsearch 版本 8.6.2
- Elasticsearch 版本 8.6.1
- Elasticsearch 版本 8.6.0
- Elasticsearch 版本 8.5.3
- Elasticsearch 版本 8.5.2
- Elasticsearch 版本 8.5.1
- Elasticsearch 版本 8.5.0
- Elasticsearch 版本 8.4.3
- Elasticsearch 版本 8.4.2
- Elasticsearch 版本 8.4.1
- Elasticsearch 版本 8.4.0
- Elasticsearch 版本 8.3.3
- Elasticsearch 版本 8.3.2
- Elasticsearch 版本 8.3.1
- Elasticsearch 版本 8.3.0
- Elasticsearch 版本 8.2.3
- Elasticsearch 版本 8.2.2
- Elasticsearch 版本 8.2.1
- Elasticsearch 版本 8.2.0
- Elasticsearch 版本 8.1.3
- Elasticsearch 版本 8.1.2
- Elasticsearch 版本 8.1.1
- Elasticsearch 版本 8.1.0
- Elasticsearch 版本 8.0.1
- Elasticsearch 版本 8.0.0
- Elasticsearch 版本 8.0.0-rc2
- Elasticsearch 版本 8.0.0-rc1
- Elasticsearch 版本 8.0.0-beta1
- Elasticsearch 版本 8.0.0-alpha2
- Elasticsearch 版本 8.0.0-alpha1
- 依赖项和版本
多样化采样器聚合
编辑多样化采样器聚合
编辑与 sampler
聚合类似,这是一个过滤聚合,用于将任何子聚合的处理限制为得分最高的文档的样本。diversified_sampler
聚合增加了限制共享相同值(例如“作者”)的匹配项数量的功能。
任何优秀的市场研究人员都会告诉你,在使用数据样本时,重要的是样本能代表各种健康的观点,而不是被任何单一的声音所扭曲。聚合和采样也是如此,使用这些多样化设置可以提供一种方法来消除内容中的偏差(人口过多的地理区域、时间线上的大幅峰值或过度活跃的论坛垃圾邮件发送者)。
示例用例
- 将分析的重点缩小到高相关性匹配项,而不是潜在的非常长的低质量匹配项尾部
- 通过确保不同来源的内容得到公平表示来消除分析中的偏差
- 降低仅使用样本即可产生有用结果的聚合的运行成本,例如
significant_terms
field
设置用于提供用于去重的值,而 max_docs_per_value
设置控制在任何一个分片上收集的共享公共值的文档的最大数量。max_docs_per_value
的默认设置为 1。
如果 field
为单个文档生成多个值,则聚合将抛出错误(由于效率问题,不支持使用多值字段进行去重)。
示例
我们可能想查看哪些标签与 StackOverflow 论坛帖子上的 #elasticsearch
紧密相关,但忽略一些喜欢将 #Kibana 拼写为 #Cabana 的多产用户的影响。
resp = client.search( index="stackoverflow", size="0", query={ "query_string": { "query": "tags:elasticsearch" } }, aggs={ "my_unbiased_sample": { "diversified_sampler": { "shard_size": 200, "field": "author" }, "aggs": { "keywords": { "significant_terms": { "field": "tags", "exclude": [ "elasticsearch" ] } } } } }, ) print(resp)
response = client.search( index: 'stackoverflow', size: 0, body: { query: { query_string: { query: 'tags:elasticsearch' } }, aggregations: { my_unbiased_sample: { diversified_sampler: { shard_size: 200, field: 'author' }, aggregations: { keywords: { significant_terms: { field: 'tags', exclude: [ 'elasticsearch' ] } } } } } } ) puts response
const response = await client.search({ index: "stackoverflow", size: 0, query: { query_string: { query: "tags:elasticsearch", }, }, aggs: { my_unbiased_sample: { diversified_sampler: { shard_size: 200, field: "author", }, aggs: { keywords: { significant_terms: { field: "tags", exclude: ["elasticsearch"], }, }, }, }, }, }); console.log(response);
POST /stackoverflow/_search?size=0 { "query": { "query_string": { "query": "tags:elasticsearch" } }, "aggs": { "my_unbiased_sample": { "diversified_sampler": { "shard_size": 200, "field": "author" }, "aggs": { "keywords": { "significant_terms": { "field": "tags", "exclude": [ "elasticsearch" ] } } } } } }
响应
{ ... "aggregations": { "my_unbiased_sample": { "doc_count": 151, "keywords": { "doc_count": 151, "bg_count": 650, "buckets": [ { "key": "kibana", "doc_count": 150, "score": 2.213, "bg_count": 200 } ] } } } }
脚本示例
编辑在这种情况下,我们可能希望对字段值的组合进行多样化。我们可以使用运行时字段生成 tags 字段中多个值的哈希值,以确保我们没有由相同重复的标签组合组成的样本。
resp = client.search( index="stackoverflow", size="0", query={ "query_string": { "query": "tags:kibana" } }, runtime_mappings={ "tags.hash": { "type": "long", "script": "emit(doc['tags'].hashCode())" } }, aggs={ "my_unbiased_sample": { "diversified_sampler": { "shard_size": 200, "max_docs_per_value": 3, "field": "tags.hash" }, "aggs": { "keywords": { "significant_terms": { "field": "tags", "exclude": [ "kibana" ] } } } } }, ) print(resp)
response = client.search( index: 'stackoverflow', size: 0, body: { query: { query_string: { query: 'tags:kibana' } }, runtime_mappings: { 'tags.hash' => { type: 'long', script: "emit(doc['tags'].hashCode())" } }, aggregations: { my_unbiased_sample: { diversified_sampler: { shard_size: 200, max_docs_per_value: 3, field: 'tags.hash' }, aggregations: { keywords: { significant_terms: { field: 'tags', exclude: [ 'kibana' ] } } } } } } ) puts response
const response = await client.search({ index: "stackoverflow", size: 0, query: { query_string: { query: "tags:kibana", }, }, runtime_mappings: { "tags.hash": { type: "long", script: "emit(doc['tags'].hashCode())", }, }, aggs: { my_unbiased_sample: { diversified_sampler: { shard_size: 200, max_docs_per_value: 3, field: "tags.hash", }, aggs: { keywords: { significant_terms: { field: "tags", exclude: ["kibana"], }, }, }, }, }, }); console.log(response);
POST /stackoverflow/_search?size=0 { "query": { "query_string": { "query": "tags:kibana" } }, "runtime_mappings": { "tags.hash": { "type": "long", "script": "emit(doc['tags'].hashCode())" } }, "aggs": { "my_unbiased_sample": { "diversified_sampler": { "shard_size": 200, "max_docs_per_value": 3, "field": "tags.hash" }, "aggs": { "keywords": { "significant_terms": { "field": "tags", "exclude": [ "kibana" ] } } } } } }
响应
{ ... "aggregations": { "my_unbiased_sample": { "doc_count": 6, "keywords": { "doc_count": 6, "bg_count": 650, "buckets": [ { "key": "logstash", "doc_count": 3, "score": 2.213, "bg_count": 50 }, { "key": "elasticsearch", "doc_count": 3, "score": 1.34, "bg_count": 200 } ] } } } }
shard_size
编辑shard_size
参数限制在每个分片上处理的样本中收集的得分最高的文档的数量。默认值为 100。
max_docs_per_value
编辑max_docs_per_value
是一个可选参数,用于限制每个去重值选择允许的文档数量。默认设置为“1”。
execution_hint
编辑可选的 execution_hint
设置会影响用于去重的值的管理。每个选项在执行去重时都会在内存中保存最多 shard_size
个值,但可以按如下方式控制保存的值的类型
- 直接保存字段值 (
map
) - 保存由 Lucene 索引确定的字段的序号 (
global_ordinals
) - 保存字段值的哈希值 - 可能存在哈希冲突 (
bytes_hash
)
默认设置是使用global_ordinals
(如果此信息可从 Lucene 索引中获得),否则回退到 map
。bytes_hash
设置在某些情况下可能更快,但由于可能存在哈希冲突,因此会在去重逻辑中引入误报的可能性。请注意,如果执行提示不适用,Elasticsearch 将忽略执行提示的选择,并且这些提示没有向后兼容性保证。
限制
编辑不能嵌套在 breadth_first
聚合下
编辑作为基于质量的过滤器,多样化采样器聚合需要访问为每个文档生成的相关性得分。因此,它不能嵌套在 terms
聚合下,后者的 collect_mode
从默认的 depth_first
模式切换到 breadth_first
,因为这会丢弃得分。在这种情况下,将抛出一个错误。
有限的去重逻辑。
编辑去重逻辑仅在分片级别应用,因此不会跨分片应用。
没有针对地理/日期字段的特殊语法
编辑目前,用于定义多样化值的语法由 field
或 script
的选择来定义 - 没有用于表达地理或日期单位(例如“7d”(7 天))的附加语法糖。此支持可能会在以后的版本中添加,用户目前必须使用脚本创建这些类型的值。
On this page