简单模式分割分词器
编辑简单模式分割分词器
编辑simple_pattern_split
分词器使用正则表达式在模式匹配处将输入分割成词条。它支持的正则表达式功能集比 pattern
分词器更有限,但分词速度通常更快。
此分词器不会从匹配项本身生成词条。要使用相同受限正则表达式子集中的模式从匹配项生成词条,请参阅 simple_pattern
分词器。
此分词器使用 Lucene 正则表达式。有关支持的功能和语法的说明,请参阅 正则表达式语法。
默认模式为空字符串,它会生成一个包含完整输入的词条。此分词器应始终配置为使用非默认模式。
配置
编辑simple_pattern_split
分词器接受以下参数
|
一个 Lucene 正则表达式,默认为空字符串。 |
示例配置
编辑此示例配置 simple_pattern_split
分词器以在输入文本的下划线处进行分割。
resp = client.indices.create( index="my-index-000001", settings={ "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "my_tokenizer" } }, "tokenizer": { "my_tokenizer": { "type": "simple_pattern_split", "pattern": "_" } } } }, ) print(resp) resp1 = client.indices.analyze( index="my-index-000001", analyzer="my_analyzer", text="an_underscored_phrase", ) print(resp1)
response = client.indices.create( index: 'my-index-000001', body: { settings: { analysis: { analyzer: { my_analyzer: { tokenizer: 'my_tokenizer' } }, tokenizer: { my_tokenizer: { type: 'simple_pattern_split', pattern: '_' } } } } } ) puts response response = client.indices.analyze( index: 'my-index-000001', body: { analyzer: 'my_analyzer', text: 'an_underscored_phrase' } ) puts response
const response = await client.indices.create({ index: "my-index-000001", settings: { analysis: { analyzer: { my_analyzer: { tokenizer: "my_tokenizer", }, }, tokenizer: { my_tokenizer: { type: "simple_pattern_split", pattern: "_", }, }, }, }, }); console.log(response); const response1 = await client.indices.analyze({ index: "my-index-000001", analyzer: "my_analyzer", text: "an_underscored_phrase", }); console.log(response1);
PUT my-index-000001 { "settings": { "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "my_tokenizer" } }, "tokenizer": { "my_tokenizer": { "type": "simple_pattern_split", "pattern": "_" } } } } } POST my-index-000001/_analyze { "analyzer": "my_analyzer", "text": "an_underscored_phrase" }
以上示例生成以下词条
[ an, underscored, phrase ]