1. 程式人生 > 其它 >ES 分詞器簡單應用

ES 分詞器簡單應用

本文為博主原創,未經允許不得轉載:

1.ES分詞器

  1.1elasticsearch預設分詞器:standard

    standard分詞器會將每個英文單詞及每個漢字進行單獨拆分進行索引

  使用示例: 

POST _analyze 
 { 
 "analyzer":"standard", 
 "text":"我愛你中國" 
 }
 

  

  2.ik中文分詞器

  ik中文分詞器會根據具體的語義進行拆分,比如南京市,如果使用standard分詞設定,則會形成南,京,市三個索引,明顯不合理,使用ik中文分詞器,則會拆分成南京市進行索引。ik中文分詞器有兩種模式:ik_smart和ik_max_word 。ik_smart智慧化拆分:比如清華大學,則會拆分為清華大學,而ik_max_word則會拆分為清華大學,清華,大學等索引。

 POST _analyze
 { 
 "analyzer": "ik_smart", 
 "text": "江蘇省南京市江寧區" 
 }
 
  POST _analyze
 { 
 "analyzer": "ik_smart", 
 "text": "南京市" 
 }
 

  修改索引的預設分詞方法:

PUT /test_es_db 
 { 
    "settings" : { 
    "index" : {
        "analysis.analyzer.default.type": "ik_max_word" 
        } 
    } 
}