IKAnalyzer中文分词器V2012使用手册
采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。优化的词典存储,更小的内存占用。支持用户词典扩展定义针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
用户评论
推荐下载
-
analysis ik中文分词器
IK Analyzer是一个开源的,基于Java语言开发的轻量级的中文分词工具包; 最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件;从 3.0 版本开始,IK
18 2020-08-20 -
中文拼音分词器
针对中文进行修改的拼音分词器,很强大,支持首字母搜索、全拼搜索,首字母+全拼搜索!配置如下:拼音分词 2015-11-19 上传大小:21KB
42 2019-02-21 -
IK Analyzer中文分词器
IK Analyzer是一款结合了词典和文法分析算法的中文分词组件,基于字符串匹配,支持用户词典扩展定义,支持细粒度和智能切分
43 2018-12-09 -
lucene solr中文分词器
lucene默认自带的分词器对中文支持并不好,所以对于中文索引的分词器,建议使用第三方开源的中文分词器
33 2019-05-17 -
solr中文分词器集群
solr 源码 + IK 分词器 + zookeeper。
26 2019-04-17 -
中文分词器Paoding庖丁
很好用的中文分词器,能很好的与搜索引擎框架整合,此jar兼容支持Lucene3.0以上版本。
35 2019-06-01 -
ansj中文分词器源码
Ansj Chinese word segmentation source
30 2019-06-26 -
IK中文分词器原理
详细讲解IK分词器原理
34 2019-04-27 -
elasticsearch中文分词器ik
https://github.com/medcl/elasticsearch-analysis-ikelasticsearch中文分词器
30 2019-05-13 -
solr以及中文分词器
Solr 是 Apache 下的顶级开源项目,用 Java 开发,是一个基于 Lucene 的全文搜索服务器。Solr 提供了比 Lucene 更丰富的查询语言,同时可以对其进行配置和可扩展,优化了索
34 2019-06-21
暂无评论