修改ES預設分詞設定
ES的預設分詞設定是standard,這個在中文分詞時就比較尷尬了,會單字拆分,比如我搜索關鍵詞“清華大學”,這時候會按“清”,“華”,“大”,“學”去分詞,然後搜出來的都是些“清清的河水”,“中華兒女”,“地大物博”,“學而不思則罔”之類的莫名其妙的結果,這裡我們就想把這個分詞方式修改一下,於是呢,就想到了ik分詞器,有兩種ik_smart和ik_max_word。
ik_smart會將“清華大學”整個分為一個詞,而ik_max_word會將“清華大學”分為“清華大學”,“清華”和“大學”,按需選其中之一就可以了。
修改預設分詞方法(這裡修改school_index索引的預設分詞為:ik_max_word):
PUT /school_index
{
"settings" : {
"index" : {
"analysis.analyzer.default.type": "ik_max_word"
}
}
}
相關推薦
修改ES預設分詞設定
ES的預設分詞設定是standard,這個在中文分詞時就比較尷尬了,會單字拆分,比如我搜索關鍵詞“清華大學”,這時候會按“清”,“華”,“大”,“學”去分詞,然後搜出來的都是些“清清的河水”,“中華兒
ES ik分詞器使用技巧
match查詢會將查詢詞分詞,然後對分詞的結果進行term查詢。 然後預設是將每個分詞term查詢之後的結果求交集,所以只要分詞的結果能夠命中,某條資料就可以被查詢出來,而分詞是在新建索引時指定的,只有text型別的資料才能設定分詞策略。 新建索引,並指定分詞策略: PUT mail_test3 {
[ES]elasticsearch章5 ES的分詞(二)
string tor 會同 需要 分隔 clas c中 ken fig Elasticsearch 中文搜索時遇到幾個問題: 當搜索關鍵詞如:“人民幣”時,如果分詞將“人民幣”分成“人&rdquo
ES:修改分詞器以及定製自己的分詞器
1、預設的分詞器 standard standard tokenizer:以單詞邊界進行切分 standard token filter:什麼都不做 lowercase token filter:將所有字母轉換為小寫 stop token filer(預設被禁用
62.修改分詞器及手動創建分詞器
round 單詞 自己 words 停用 默認 htm ext yellow 主要知識點 修改分詞器 手動創建分詞器 一、修改分詞器 1、默認的分詞器standard,主要有以下四個功能 standard tokenizer:以單詞邊界進行切
docker之es+es-head+kibana+ik分詞器安裝
data elastics work str search url 使用 數據 head 一、es 第一步:搜索docker search elasticsearch第二步:下載鏡像第三步:創建數據文件夾和配置文件宿主服務器創建文件夾mkdir -p /docker/es1
ES倒排索引與分詞詳解
倒排索引 正排索引:文件id到單詞的關聯關係 倒排索引:單詞到文件id的關聯關係 示例: 對以下三個文件去除停用詞後構造倒排索引 image 倒排索引-查詢過程 查詢包含“搜尋引擎”的文件 通過倒排索引獲得“搜尋引擎”對應的文
Elasticsearch如何實現篩選功能(設定欄位不分詞和聚合操作)
0 起因 中文分詞中比較常用的分詞器是es-ik,建立索引的方式如下: 這裡我們為index personList新建了兩個欄位:name和district,注意索引名稱必須是小寫 (以下格式都是在kibana上做的) PUT /person_list { "mappings
關於es(搜尋引擎)的分詞器ik
需要注意,配置 es的版本需要和ik的版本一直, 同kibana視覺化工具一樣,都要對應版本。我用的es是6.4.1對應的ik分詞器的地址 https://github.com/medcl/elasticsearch-analysis-ik/releases 到這裡下載,如果es和i
Es學習第五課, 分詞器介紹和中文分詞器配置
上課我們介紹了倒排索引,在裡面提到了分詞的概念,分詞器就是用來分詞的。 分詞器是ES中專門處理分詞的元件,英文為Analyzer,定義為:從一串文字中切分出一個一個的詞條,並對每個詞條進行標準化。它由三部分組成, Character Filters:分詞之前進行預處
ElasticSearch最佳入門實踐(四十四)手動建立和修改mapping以及定製string型別資料是否分詞
1、如何建立索引 如果想設定 string 為分詞 把它設定為 analyzed not_analyzed 則是 設定為 exact value 全匹配 no 則 是不能被索引和匹配 2、修改mapping 注意事項:只能建立index時手動建立mapp
ElasticSearch實戰二(es基本操作以及IK分詞器的安裝)
1 基本概念 1.1 Node 與 Cluster Elastic 本質上是一個分散式資料庫,允許多臺伺服器協同工作,每臺伺服器可以執行多個 Elastic 例項。 單個 Elastic 例項稱為一個節點(node)。一組節點構成一個叢集(cluster)。 1.2 Index El
ElasticSearch最佳入門實踐(六十一)修改分詞器以及定製自己的分詞器
1、預設的分詞器 standard 其餘: standard tokenizer:以單詞邊界進行切分 standard token filter:什麼都不做 lowercase token filter:將所有字母轉換為小寫 stop token filer
es配置中文和拼音分詞器
1.簡介 es預設使用standard分詞器 es還有其他分詞器比如simple writespace language 2.配置中文分詞器(需先安裝git maven unzip) git clone https://github.com/medcl/elasticse
elasticsearch-手動設定_mapping中欄位型別及分詞器-ES5.X與ES6.X區別
【問題描述】:手動設定mapping,給指定欄位設定是否進行分詞,以及分詞器型別。環境資訊:學習elasticsearch時,案例使用的是5.x版本,自己本地使用的是6.x版本。案例如下,5.x版本編輯:PUT /website{ "mappings": { "art
ElasticSearch50:索引管理_快速上機動手實戰修改分詞器以及定製自己的分詞器
1.預設的分詞器 standard standard tokenizer:以單詞的邊界進行切分 standard token filter:什麼都不做 lowercase token filter:將所有字母轉換成小寫 stop token filter(預設被禁用),移除
ES學習(四)拼音外掛分詞elasticsearch-analysis-pinyin
摘要:elasticsearch-analysis-pinyin是elasticsearch的一個分詞外掛,用於漢字與拼音之間的轉換。本文主要介紹該外掛的安裝和具體的使用方法。 一.安裝 1.去官網下
es 分詞器
課程大綱 1、什麼是分詞器 切分詞語,normalization(提升recall召回率) 給你一段句子,然後將這段句子拆分成一個一個的單個的單詞,同時對每個單詞進行normalization(時態轉換,單複數轉換),分瓷器 recall,召回率:搜尋的時候,增加能夠搜
ElasticSearch官方預設的分詞外掛
elasticsearch官方預設的分詞外掛,對中文分詞效果不理想。 比如,我現在,拿個具體例項來展現下,驗證為什麼,es官網提供的分詞外掛對中文分詞而言,效果差。總結 如果直接使用Elast
Elasticsearch-IK分詞器詳解以及原始碼修改實現mysql熱更新
IK分詞器的安裝和使用 訪問ik分詞器github專案地址:https://github.com/medcl/elasticsearch-analysis-ik 1.在本地clone專案程式碼,git clone https://github.com/me