elasticsearch本身自带的中文分词,就是单纯把中文一个字一个字的分开,根本没有词汇的概念。但是实际应用中,用户都是以词汇为条件,进行查询匹配的,如果能够把文章以词汇为单位切分开,那么与用户的查询条件能够更贴切的匹配上,查询速度也更加快速。 分词器下载网址:https://github.com/medcl/elasticsearch-analysis-ik 1.安装 下载好的zip包,请解压后放到 /usr/share/elasticsearch/plugins/ik 然后重启es 2.测试使用 使用默认 GET movie_index/_analyze { “text