IKAnalyzer中文分词器 v3.2 使用手册.rar
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。IKAnalyzer3.0特性:采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
用户评论
推荐下载
-
lucene solr中文分词器
lucene默认自带的分词器对中文支持并不好,所以对于中文索引的分词器,建议使用第三方开源的中文分词器
33 2019-05-17 -
solr中文分词器集群
solr 源码 + IK 分词器 + zookeeper。
26 2019-04-17 -
中文分词器Paoding庖丁
很好用的中文分词器,能很好的与搜索引擎框架整合,此jar兼容支持Lucene3.0以上版本。
35 2019-06-01 -
ansj中文分词器源码
Ansj Chinese word segmentation source
30 2019-06-26 -
IK中文分词器原理
详细讲解IK分词器原理
34 2019-04-27 -
elasticsearch中文分词器ik
https://github.com/medcl/elasticsearch-analysis-ikelasticsearch中文分词器
30 2019-05-13 -
solr以及中文分词器
Solr 是 Apache 下的顶级开源项目,用 Java 开发,是一个基于 Lucene 的全文搜索服务器。Solr 提供了比 Lucene 更丰富的查询语言,同时可以对其进行配置和可扩展,优化了索
34 2019-06-21 -
ik中文分词器5.5.0
ElasticSearch中使用ik分词器,使用与ES5.5.0。
34 2018-12-08 -
Stanford中文分词器下载
使用Stanford中文分词器可以对中文文本进行精准的分词和分析,本资源为Stanford中文分词器的下载链接和安装教程,与core-full组件配合使用效果更佳。
10 2023-03-30 -
IKAnalyzer2012_u6中文分词器以及手册正式版.zip
IKAnalyzer2012_u6中文分词器以及手册正式版 Mode LastWriteTime Length Name ---- ------------- ------ ---- d----- 2
9 2020-07-21
暂无评论