ES 分詞器簡單應用
阿新 • • 發佈:2021-10-06
本文為博主原創,未經允許不得轉載:
1.ES分詞器
1.1elasticsearch預設分詞器:standard
standard分詞器會將每個英文單詞及每個漢字進行單獨拆分進行索引
使用示例:
POST _analyze { "analyzer":"standard", "text":"我愛你中國" }
2.ik中文分詞器
ik中文分詞器會根據具體的語義進行拆分,比如南京市,如果使用standard分詞設定,則會形成南,京,市三個索引,明顯不合理,使用ik中文分詞器,則會拆分成南京市進行索引。ik中文分詞器有兩種模式:ik_smart和ik_max_word 。ik_smart智慧化拆分:比如清華大學,則會拆分為清華大學,而ik_max_word則會拆分為清華大學,清華,大學等索引。
POST _analyze { "analyzer": "ik_smart", "text": "江蘇省南京市江寧區" } POST _analyze { "analyzer": "ik_smart", "text": "南京市" }
修改索引的預設分詞方法:
PUT /test_es_db { "settings" : { "index" : { "analysis.analyzer.default.type": "ik_max_word" } } }