撇号分词过滤器
编辑撇号分词过滤器编辑
删除撇号后的所有字符,包括撇号本身。
此过滤器包含在 Elasticsearch 内置的 土耳其语分析器 中。它使用 Lucene 的 ApostropheFilter,该过滤器是为土耳其语构建的。
示例编辑
以下 分析 API 请求演示了撇号分词过滤器的工作原理。
response = client.indices.analyze( body: { tokenizer: 'standard', filter: [ 'apostrophe' ], text: "Istanbul'a veya Istanbul'dan" } ) puts response
GET /_analyze { "tokenizer" : "standard", "filter" : ["apostrophe"], "text" : "Istanbul'a veya Istanbul'dan" }
该过滤器生成以下分词
[ Istanbul, veya, Istanbul ]
添加到分析器编辑
以下 创建索引 API 请求使用撇号分词过滤器来配置新的 自定义分析器。
response = client.indices.create( index: 'apostrophe_example', body: { settings: { analysis: { analyzer: { standard_apostrophe: { tokenizer: 'standard', filter: [ 'apostrophe' ] } } } } } ) puts response
PUT /apostrophe_example { "settings": { "analysis": { "analyzer": { "standard_apostrophe": { "tokenizer": "standard", "filter": [ "apostrophe" ] } } } } }