IK tokenizer for Solr6.6.0
ik中文分词器,solr5版本的分词器,使用教程百度有,这个是源码版
solr-ik中文分词器资源包,包括ext.dic,,IKAnalyzer.cfg.xml,,ik-analyzer-solr5-5.x.jar,,managed-schema,,solr-analy
elasticsearch-analysis-ik-6.6.1为ik分词器最新版本需结合solr使用
solr4.10.0部署文件全集(包括分词器、mysql的jar包)
来自“猎图网www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1.正向全切分算法,42万汉字字符/每秒的处理能力(IBMThinkPad酷睿I1.6G1G
压缩包内含有Lucene分词时所需要的jar包,可以添加到本地maven当中使用,但不含demo,如需使用Lucene的demo,还请下载Lucene-Demo.rar
中文分词支持solr 5.3.0的IKAnalyzer中文分词器 IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK
中文分词器 mmseg4j 正确版已经修改了里面的bug问题
几种分词工具都试过,对于中文来说的的话个人觉得IKAnalyzer最好用,不同版本的IKAnalyzerjar包,包括IKAnalyzer6.5.0、IKAnalyzer5.0、IKAnalyzer2