Elasticsearch教程(二),IK分詞器安裝
阿新 • • 發佈:2019-01-23
怕麻煩就看上面的(極速版),是我已經打包好的 IK分詞器 需要的東西。
首先說說分詞器,分詞,英語分詞很好分,就是按固定的英文的空格,或者“-
”。中文分詞就稍微有點複雜了,而 Elasticsearch 預設是帶分詞器了,我們來測試一下。
http://123.88.88.88:9200/_analyze?analyzer=standard&pretty=true&text=sojson線上工具
得出的結果如下:
{
"tokens":[{
"token":"sojson",
"start_offset":0,
"end_offset":6,
"type":"",
"position":0
},{
"token"
"start_offset":6,
"end_offset":7,
"type":"",
"position":1
},{
"token":"線",
"start_offset":7,
"end_offset":8,
"type":"",
"position":2
},{
"token":"工",
"start_offset":8,
"end_offset":9,
"type":"",
"position":3
},{
"token":"具",
"start_offset":9,
"end_offset":10,
"type":"",
"position":4
}]
}
發現中文是一個字一個字的分對吧。我們要的需求應該是,sojson、線上、工具吧。
開始安裝。
1、下載
2、解壓。
把下載的 elasticsearch-analysis-ik.zip解壓。
3、 Maven 打包
進入elasticsearch-analysis-ik-master/ 下,打包。注意:打包後的檔案在elasticsearch-analysis-ik-master/target/
目錄下
mvn clean package
4.然後在elasticsearch-2.2.0/plugins
下建立目錄 ik
cd elasticsearch-2.2.0/plugins
mkdir ik
cd ik
然後將打包後的elasticsearch-analysis-ik-1.8.0.jar
放入當前目錄下,然後解壓。
5、設定(2.0以上可以不設定,我沒有設定)。
在 Elasticsearch 的config
下的elasticsearch.yml
檔案中,新增如下程式碼。
index:
analysis:
analyzer:
ik:
alias:[ik_analyzer]
type: org.elasticsearch.index.analysis.IkAnalyzerProvider
ik_max_word:
type: ik
use_smart:false
ik_smart:
type: ik
use_smart:true
或者簡單配置:
index.analysis.analyzer.ik.type :“ik”
6、啟動測試。
http://123.88.88.88:9200/_analyze?analyzer=ik&pretty=true&text=sojson線上工具
結果為:
{
"tokens":[{
"token":"sojson",
"start_offset":0,
"end_offset":6,
"type":"ENGLISH",
"position":0
},{
"token":"線上",
"start_offset":6,
"end_offset":8,
"type":"CN_WORD",
"position":1
},{
"token":"工具",
"start_offset":8,
"end_offset":10,
"type":"CN_WORD",
"position":2
}]
}
over了,當然我以前用的版本是0.9現在是2.0,跨度太大了,所以寫這個Blog話費時間較多,中間可能有一點考慮不到的因素,如果你有疑問,可以聯絡我,或者加群找我,我有時間的情況下,可以和你探討。