Lucene的中文分词方法设计与实现
本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇处理方法,提高全文检索系统的中文处理能力.整个模块基于当前最流行的搜索引擎架构Lucene,实现了带有歧义消除功能的正向最大匹配算法.在系统评测方面,比较了该方法与现有方法的区别,对于如何构建一个高效的中文检索系统,提出了一种实现.关键词:中文分词;搜索引擎;Lucene;正向最大匹配
用户评论
推荐下载
-
lucene_JE分词_htmlParserjar包
内含lucene、je、htmlparser的jar包
31 2018-12-26 -
关于中文信息分类的分词算法实现信息过滤中的分词分词
关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础
72 2018-12-08 -
Delphi实现的简单中文分词rar
Delphi实现的简单中文分词 可以使用一下
28 2019-01-10 -
C#实现的中文分词程序
用键树实现对中文文本的分词处理,使用C#语言实现,希望能对大家有所帮助
32 2019-05-16 -
java实现的中文分词算法代码
java实现的基于FMMBMM算法的,中文分词算法(代码)
47 2019-05-13 -
高版本Lucene的IK分词器
maven库中现有的ik分词器只支持低版本的Lucene,想要支持高版本的Lucene,需要重写老版本ik分词器里的部分代码.下载代码片段后导入项目,在创建分词器的时候把newIKAnalyzer替换
32 2019-05-03 -
基于Lucene搜索引擎的设计与实现
lucene搜索引擎设计与实现论文,基于全文搜索
26 2019-05-06 -
Lucene全文搜索引擎的设计与实现
经过对搜索引擎的研究,同时结合Lucene自身的特性,本文讨论了Lucene基于全文搜索实现的搜索引擎的设计与实现。需要实现的功能包括支持桌面文件搜索格式(如txt、doc、xls和ppt)、支持分词
8 2023-03-10 -
IK分词器Lucene与Solr学习中使用
IK中文分词器, 这是在学习Lucene与Solr过程中使用到的分词器, 需要的请在这里下载. 具体使用请参见我关于Lucene与Solr的博客. PS. 资源不能设置为0分是为什么...
9 2021-04-27 -
中文分词与词性标注
成熟的中文分词系统,输入的训练文件比较特别。HMM技术。
39 2018-12-25
暂无评论