暂无评论
在Elasticsearch中默认的分词器对中文的支持不好,会分隔成一个一个的汉字。而IK分词器对中文的支持比较好一些,主要有两种模式“ik_smart”和“ik_max_word”。 Elastic
中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展
最新2012版IKAnalyzer中文分词器,比IKAnalyzer3.2.8版本有所优化
Linux-CentOS环境下:分布式索引服务-elasticsearch-6.2.4版本及ik分词器整包,包括(elasticsearch-6.2.4.tar.gz,ik-analyzer.zip)
ik-analyzer-8.3.0,强大的中文分词器,已经在项目中成功使用
Ik分词器的源码,jar包,导入即可使用,常用到与持久层对句子进行分词处理
elasticsearch-analysis-ik.zip
自己写的lucene.net2.0的中文分词器,采用最大向前匹配算法,附上源代码,希望这方面有兴趣的互相交流一下。yangxiuyunji@163.com
IK分词器2012jar
solr的ik分词器jar包,里面有5-5x和7x两个版本,手动狗头
暂无评论