- Elasticsearch 指南其他版本
- 8.17 中的新功能
- Elasticsearch 基础
- 快速入门
- 设置 Elasticsearch
- 升级 Elasticsearch
- 索引模块
- 映射
- 文本分析
- 索引模板
- 数据流
- 摄取管道
- 别名
- 搜索您的数据
- 重新排名
- 查询 DSL
- 聚合
- 地理空间分析
- 连接器
- EQL
- ES|QL
- SQL
- 脚本
- 数据管理
- 自动缩放
- 监视集群
- 汇总或转换数据
- 设置高可用性集群
- 快照和还原
- 保护 Elastic Stack 的安全
- Watcher
- 命令行工具
- elasticsearch-certgen
- elasticsearch-certutil
- elasticsearch-create-enrollment-token
- elasticsearch-croneval
- elasticsearch-keystore
- elasticsearch-node
- elasticsearch-reconfigure-node
- elasticsearch-reset-password
- elasticsearch-saml-metadata
- elasticsearch-service-tokens
- elasticsearch-setup-passwords
- elasticsearch-shard
- elasticsearch-syskeygen
- elasticsearch-users
- 优化
- 故障排除
- 修复常见的集群问题
- 诊断未分配的分片
- 向系统中添加丢失的层
- 允许 Elasticsearch 在系统中分配数据
- 允许 Elasticsearch 分配索引
- 索引将索引分配过滤器与数据层节点角色混合,以在数据层之间移动
- 没有足够的节点来分配所有分片副本
- 单个节点上索引的分片总数已超过
- 每个节点的分片总数已达到
- 故障排除损坏
- 修复磁盘空间不足的数据节点
- 修复磁盘空间不足的主节点
- 修复磁盘空间不足的其他角色节点
- 启动索引生命周期管理
- 启动快照生命周期管理
- 从快照恢复
- 故障排除损坏的存储库
- 解决重复的快照策略失败问题
- 故障排除不稳定的集群
- 故障排除发现
- 故障排除监控
- 故障排除转换
- 故障排除 Watcher
- 故障排除搜索
- 故障排除分片容量健康问题
- 故障排除不平衡的集群
- 捕获诊断信息
- REST API
- API 约定
- 通用选项
- REST API 兼容性
- 自动缩放 API
- 行为分析 API
- 紧凑和对齐文本 (CAT) API
- 集群 API
- 跨集群复制 API
- 连接器 API
- 数据流 API
- 文档 API
- 丰富 API
- EQL API
- ES|QL API
- 功能 API
- Fleet API
- 图表探索 API
- 索引 API
- 别名是否存在
- 别名
- 分析
- 分析索引磁盘使用量
- 清除缓存
- 克隆索引
- 关闭索引
- 创建索引
- 创建或更新别名
- 创建或更新组件模板
- 创建或更新索引模板
- 创建或更新索引模板(旧版)
- 删除组件模板
- 删除悬挂索引
- 删除别名
- 删除索引
- 删除索引模板
- 删除索引模板(旧版)
- 存在
- 字段使用情况统计信息
- 刷新
- 强制合并
- 获取别名
- 获取组件模板
- 获取字段映射
- 获取索引
- 获取索引设置
- 获取索引模板
- 获取索引模板(旧版)
- 获取映射
- 导入悬挂索引
- 索引恢复
- 索引段
- 索引分片存储
- 索引统计信息
- 索引模板是否存在(旧版)
- 列出悬挂索引
- 打开索引
- 刷新
- 解析索引
- 解析集群
- 翻转
- 收缩索引
- 模拟索引
- 模拟模板
- 拆分索引
- 解冻索引
- 更新索引设置
- 更新映射
- 索引生命周期管理 API
- 推理 API
- 信息 API
- 摄取 API
- 许可 API
- Logstash API
- 机器学习 API
- 机器学习异常检测 API
- 机器学习数据帧分析 API
- 机器学习训练模型 API
- 迁移 API
- 节点生命周期 API
- 查询规则 API
- 重新加载搜索分析器 API
- 存储库计量 API
- 汇总 API
- 根 API
- 脚本 API
- 搜索 API
- 搜索应用程序 API
- 可搜索快照 API
- 安全 API
- 身份验证
- 更改密码
- 清除缓存
- 清除角色缓存
- 清除权限缓存
- 清除 API 密钥缓存
- 清除服务帐户令牌缓存
- 创建 API 密钥
- 创建或更新应用程序权限
- 创建或更新角色映射
- 创建或更新角色
- 批量创建或更新角色 API
- 批量删除角色 API
- 创建或更新用户
- 创建服务帐户令牌
- 委托 PKI 身份验证
- 删除应用程序权限
- 删除角色映射
- 删除角色
- 删除服务帐户令牌
- 删除用户
- 禁用用户
- 启用用户
- 注册 Kibana
- 注册节点
- 获取 API 密钥信息
- 获取应用程序权限
- 获取内置权限
- 获取角色映射
- 获取角色
- 查询角色
- 获取服务帐户
- 获取服务帐户凭据
- 获取安全设置
- 获取令牌
- 获取用户权限
- 获取用户
- 授予 API 密钥
- 具有权限
- 使 API 密钥失效
- 使令牌失效
- OpenID Connect 准备身份验证
- OpenID Connect 身份验证
- OpenID Connect 注销
- 查询 API 密钥信息
- 查询用户
- 更新 API 密钥
- 更新安全设置
- 批量更新 API 密钥
- SAML 准备身份验证
- SAML 身份验证
- SAML 注销
- SAML 失效
- SAML 完成注销
- SAML 服务提供商元数据
- SSL 证书
- 激活用户配置文件
- 禁用用户配置文件
- 启用用户配置文件
- 获取用户配置文件
- 建议用户配置文件
- 更新用户配置文件数据
- 具有用户配置文件权限
- 创建跨集群 API 密钥
- 更新跨集群 API 密钥
- 快照和还原 API
- 快照生命周期管理 API
- SQL API
- 同义词 API
- 文本结构 API
- 转换 API
- 使用情况 API
- Watcher API
- 定义
- 迁移指南
- 发行说明
- Elasticsearch 版本 8.17.0
- Elasticsearch 版本 8.16.1
- Elasticsearch 版本 8.16.0
- Elasticsearch 版本 8.15.5
- Elasticsearch 版本 8.15.4
- Elasticsearch 版本 8.15.3
- Elasticsearch 版本 8.15.2
- Elasticsearch 版本 8.15.1
- Elasticsearch 版本 8.15.0
- Elasticsearch 版本 8.14.3
- Elasticsearch 版本 8.14.2
- Elasticsearch 版本 8.14.1
- Elasticsearch 版本 8.14.0
- Elasticsearch 版本 8.13.4
- Elasticsearch 版本 8.13.3
- Elasticsearch 版本 8.13.2
- Elasticsearch 版本 8.13.1
- Elasticsearch 版本 8.13.0
- Elasticsearch 版本 8.12.2
- Elasticsearch 版本 8.12.1
- Elasticsearch 版本 8.12.0
- Elasticsearch 版本 8.11.4
- Elasticsearch 版本 8.11.3
- Elasticsearch 版本 8.11.2
- Elasticsearch 版本 8.11.1
- Elasticsearch 版本 8.11.0
- Elasticsearch 版本 8.10.4
- Elasticsearch 版本 8.10.3
- Elasticsearch 版本 8.10.2
- Elasticsearch 版本 8.10.1
- Elasticsearch 版本 8.10.0
- Elasticsearch 版本 8.9.2
- Elasticsearch 版本 8.9.1
- Elasticsearch 版本 8.9.0
- Elasticsearch 版本 8.8.2
- Elasticsearch 版本 8.8.1
- Elasticsearch 版本 8.8.0
- Elasticsearch 版本 8.7.1
- Elasticsearch 版本 8.7.0
- Elasticsearch 版本 8.6.2
- Elasticsearch 版本 8.6.1
- Elasticsearch 版本 8.6.0
- Elasticsearch 版本 8.5.3
- Elasticsearch 版本 8.5.2
- Elasticsearch 版本 8.5.1
- Elasticsearch 版本 8.5.0
- Elasticsearch 版本 8.4.3
- Elasticsearch 版本 8.4.2
- Elasticsearch 版本 8.4.1
- Elasticsearch 版本 8.4.0
- Elasticsearch 版本 8.3.3
- Elasticsearch 版本 8.3.2
- Elasticsearch 版本 8.3.1
- Elasticsearch 版本 8.3.0
- Elasticsearch 版本 8.2.3
- Elasticsearch 版本 8.2.2
- Elasticsearch 版本 8.2.1
- Elasticsearch 版本 8.2.0
- Elasticsearch 版本 8.1.3
- Elasticsearch 版本 8.1.2
- Elasticsearch 版本 8.1.1
- Elasticsearch 版本 8.1.0
- Elasticsearch 版本 8.0.1
- Elasticsearch 版本 8.0.0
- Elasticsearch 版本 8.0.0-rc2
- Elasticsearch 版本 8.0.0-rc1
- Elasticsearch 版本 8.0.0-beta1
- Elasticsearch 版本 8.0.0-alpha2
- Elasticsearch 版本 8.0.0-alpha1
- 依赖项和版本
边缘 n 元语法分词器
编辑边缘 n 元语法分词器
编辑edge_ngram
分词器首先在遇到指定字符列表中的任何一个字符时将文本分解成单词,然后发出每个单词的 N 元语法,其中 N 元语法的起始位置锚定在单词的开头。
边缘 N 元语法对于边输入边搜索查询非常有用。
当您需要对具有广为人知的顺序的文本进行边输入边搜索,例如电影或歌曲标题时,完成建议器比边缘 N 元语法更有效率。 当尝试自动完成可以以任何顺序出现的单词时,边缘 N 元语法具有优势。
示例输出
编辑使用默认设置,edge_ngram
分词器将初始文本视为单个词元,并生成最小长度为 1
,最大长度为 2
的 N 元语法。
resp = client.indices.analyze( tokenizer="edge_ngram", text="Quick Fox", ) print(resp)
response = client.indices.analyze( body: { tokenizer: 'edge_ngram', text: 'Quick Fox' } ) puts response
const response = await client.indices.analyze({ tokenizer: "edge_ngram", text: "Quick Fox", }); console.log(response);
POST _analyze { "tokenizer": "edge_ngram", "text": "Quick Fox" }
上面的句子将产生以下词项
[ Q, Qu ]
这些默认的语法长度几乎完全无用。您需要在使用 edge_ngram
之前对其进行配置。
配置
编辑edge_ngram
分词器接受以下参数
-
min_gram
- 语法中字符的最小长度。默认为
1
。 -
max_gram
-
语法中字符的最大长度。默认为
2
。请参阅
max_gram
参数的限制。 -
token_chars
-
应该包含在词元中的字符类。 Elasticsearch 将在不属于指定类别的字符上进行拆分。 默认为
[]
(保留所有字符)。字符类可以是以下任何一种
-
letter
— 例如a
、b
、ï
或京
-
digit
— 例如3
或7
-
whitespace
— 例如" "
或"\n"
-
punctuation
— 例如!
或"
-
symbol
— 例如$
或√
-
custom
— 使用custom_token_chars
设置的自定义字符。
-
-
custom_token_chars
- 应被视为词元一部分的自定义字符。例如,将其设置为
+-_
将使分词器将加号、减号和下划线符号视为词元的一部分。
max_gram
参数的限制
编辑edge_ngram
分词器的 max_gram
值限制了词元的字符长度。当 edge_ngram
分词器与索引分析器一起使用时,这意味着长度大于 max_gram
长度的搜索词可能与任何索引词都不匹配。
例如,如果 max_gram
为 3
,则搜索 apple
将不会匹配索引词 app
。
为了解决这个问题,您可以使用 truncate
词元过滤器与搜索分析器一起使用,将搜索词缩短到 max_gram
字符长度。但是,这可能会返回不相关的结果。
例如,如果 max_gram
为 3
,并且搜索词被截断为三个字符,则搜索词 apple
将缩短为 app
。这意味着对 apple
的搜索会返回任何与 app
匹配的索引词,例如 apply
、approximate
和 apple
。
我们建议测试这两种方法,看看哪种方法最适合您的用例和所需的搜索体验。
示例配置
编辑在此示例中,我们将 edge_ngram
分词器配置为将字母和数字视为词元,并生成最小长度为 2
,最大长度为 10
的语法。
resp = client.indices.create( index="my-index-000001", settings={ "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "my_tokenizer" } }, "tokenizer": { "my_tokenizer": { "type": "edge_ngram", "min_gram": 2, "max_gram": 10, "token_chars": [ "letter", "digit" ] } } } }, ) print(resp) resp1 = client.indices.analyze( index="my-index-000001", analyzer="my_analyzer", text="2 Quick Foxes.", ) print(resp1)
response = client.indices.create( index: 'my-index-000001', body: { settings: { analysis: { analyzer: { my_analyzer: { tokenizer: 'my_tokenizer' } }, tokenizer: { my_tokenizer: { type: 'edge_ngram', min_gram: 2, max_gram: 10, token_chars: [ 'letter', 'digit' ] } } } } } ) puts response response = client.indices.analyze( index: 'my-index-000001', body: { analyzer: 'my_analyzer', text: '2 Quick Foxes.' } ) puts response
const response = await client.indices.create({ index: "my-index-000001", settings: { analysis: { analyzer: { my_analyzer: { tokenizer: "my_tokenizer", }, }, tokenizer: { my_tokenizer: { type: "edge_ngram", min_gram: 2, max_gram: 10, token_chars: ["letter", "digit"], }, }, }, }, }); console.log(response); const response1 = await client.indices.analyze({ index: "my-index-000001", analyzer: "my_analyzer", text: "2 Quick Foxes.", }); console.log(response1);
PUT my-index-000001 { "settings": { "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "my_tokenizer" } }, "tokenizer": { "my_tokenizer": { "type": "edge_ngram", "min_gram": 2, "max_gram": 10, "token_chars": [ "letter", "digit" ] } } } } } POST my-index-000001/_analyze { "analyzer": "my_analyzer", "text": "2 Quick Foxes." }
上面的示例产生以下词项
[ Qu, Qui, Quic, Quick, Fo, Fox, Foxe, Foxes ]
通常,我们建议在索引时和搜索时使用相同的 analyzer
。对于 edge_ngram
分词器,建议有所不同。仅在索引时使用 edge_ngram
分词器才有意义,以确保索引中可以使用部分单词进行匹配。在搜索时,只需搜索用户键入的词项,例如:Quick Fo
。
以下是如何为边输入边搜索设置字段的示例。
请注意,索引分析器的 max_gram
值为 10
,这会将索引词限制为 10 个字符。搜索词不会被截断,这意味着长度超过 10 个字符的搜索词可能与任何索引词都不匹配。
resp = client.indices.create( index="my-index-000001", settings={ "analysis": { "analyzer": { "autocomplete": { "tokenizer": "autocomplete", "filter": [ "lowercase" ] }, "autocomplete_search": { "tokenizer": "lowercase" } }, "tokenizer": { "autocomplete": { "type": "edge_ngram", "min_gram": 2, "max_gram": 10, "token_chars": [ "letter" ] } } } }, mappings={ "properties": { "title": { "type": "text", "analyzer": "autocomplete", "search_analyzer": "autocomplete_search" } } }, ) print(resp) resp1 = client.index( index="my-index-000001", id="1", document={ "title": "Quick Foxes" }, ) print(resp1) resp2 = client.indices.refresh( index="my-index-000001", ) print(resp2) resp3 = client.search( index="my-index-000001", query={ "match": { "title": { "query": "Quick Fo", "operator": "and" } } }, ) print(resp3)
response = client.indices.create( index: 'my-index-000001', body: { settings: { analysis: { analyzer: { autocomplete: { tokenizer: 'autocomplete', filter: [ 'lowercase' ] }, autocomplete_search: { tokenizer: 'lowercase' } }, tokenizer: { autocomplete: { type: 'edge_ngram', min_gram: 2, max_gram: 10, token_chars: [ 'letter' ] } } } }, mappings: { properties: { title: { type: 'text', analyzer: 'autocomplete', search_analyzer: 'autocomplete_search' } } } } ) puts response response = client.index( index: 'my-index-000001', id: 1, body: { title: 'Quick Foxes' } ) puts response response = client.indices.refresh( index: 'my-index-000001' ) puts response response = client.search( index: 'my-index-000001', body: { query: { match: { title: { query: 'Quick Fo', operator: 'and' } } } } ) puts response
const response = await client.indices.create({ index: "my-index-000001", settings: { analysis: { analyzer: { autocomplete: { tokenizer: "autocomplete", filter: ["lowercase"], }, autocomplete_search: { tokenizer: "lowercase", }, }, tokenizer: { autocomplete: { type: "edge_ngram", min_gram: 2, max_gram: 10, token_chars: ["letter"], }, }, }, }, mappings: { properties: { title: { type: "text", analyzer: "autocomplete", search_analyzer: "autocomplete_search", }, }, }, }); console.log(response); const response1 = await client.index({ index: "my-index-000001", id: 1, document: { title: "Quick Foxes", }, }); console.log(response1); const response2 = await client.indices.refresh({ index: "my-index-000001", }); console.log(response2); const response3 = await client.search({ index: "my-index-000001", query: { match: { title: { query: "Quick Fo", operator: "and", }, }, }, }); console.log(response3);
PUT my-index-000001 { "settings": { "analysis": { "analyzer": { "autocomplete": { "tokenizer": "autocomplete", "filter": [ "lowercase" ] }, "autocomplete_search": { "tokenizer": "lowercase" } }, "tokenizer": { "autocomplete": { "type": "edge_ngram", "min_gram": 2, "max_gram": 10, "token_chars": [ "letter" ] } } } }, "mappings": { "properties": { "title": { "type": "text", "analyzer": "autocomplete", "search_analyzer": "autocomplete_search" } } } } PUT my-index-000001/_doc/1 { "title": "Quick Foxes" } POST my-index-000001/_refresh GET my-index-000001/_search { "query": { "match": { "title": { "query": "Quick Fo", "operator": "and" } } } }
On this page