solrIKAnalyzer5分词器需要的依赖.zip
solr-ik中文分词器资源包,包括ext.dic,,IKAnalyzer.cfg.xml,,ik-analyzer-solr5-5.x.jar,,managed-schema,,solr-analyzer-ik-5.1.0.jar,,stopword.dicsolr-ik分词solr中文分词ik分词资源
用户评论
推荐下载
-
elasticsearch–IK分词器安装
首先进入elasticsearch 安装目录使用下面命令进行安装(选择与自己安装的elasticsearch 版本相同的ik分词器) bin/elasticsearch-plugin install
18 2021-01-16 -
jieba分词器java版
本人最近在用lucene做一些东西,需要用到jieba分词器。但csdn上的资源都是需要积分的,一个开源软件竟然还要积分。。。从github找的,分享给大家吧
13 2020-10-28 -
Lucene中文分词器包
来自“猎图网www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1.正向全切分算法,42万汉字字符/每秒的处理能力(IBMThinkPad酷睿I1.6G1G
47 2019-09-18 -
横瓜中文分词器
横瓜中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词
20 2019-09-23 -
java IKAnalyzer中文分词器
IKAnalyzer安装包它的安装部署十分简单,将IKAnalyzer3.oGA.jar部署于项目的lib目录中;
39 2020-01-29 -
ik中文分词器插件
solr在7.0后内部集成有自己的中文分词器,但是其内部的分词器只是机械的分词,使用插件将更符合中文分词的习惯!
32 2019-08-18 -
ik加mmseg分词器
ik+mmseg分词器,适用于solr6.1版本,内附说明亲测可用!!!
32 2019-09-06 -
solr中文分词器技术
中文分词技术(中文分词原理)词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的
33 2019-09-09 -
高版本IK分词器
IK分词器到后面就不再更新了,所以做了一个基于Lucene6.4.0的分词器
32 2019-01-15 -
IKAnalyzer中文分词器java
IKAnalyzer中文分词器,里面包含jar包,html文档,pdf文档以及源码
46 2019-01-22
暂无评论