暂无评论
在Java编程中,结合HanLP与ANSJ提供了强大的文本分析工具包,实现了文本相似度计算和关键词提取的功能。使用HanLP进行中文文本的分词处理,该工具具有高效的分词算法和准确的词性标注,为文本处理
基于中文新闻信息分类体系,探索了中文新闻信息分类与代码的自动分类方法。根据中文新闻信息分类与代码的特点以及初始主题词满足的规则获得分类的初始主题词,利用获得的
用于中文文本分词,去停用词,包含基本的停用词词典,可根据需要进行扩充。
本文的工作主要包括两部分:第一部分,我们借用了文本分类领域的特征选择算法对中文分词中的特征进行分析。分析结果表明,特征选择算法在中文分词的任务中也是适用的。在中文分词领域,基于字标注的方法得到广泛应用
介绍了中心向量算法和KNN算法两种分类方法。针对KNN分类方法在计算文本相似度时存在的不足,提出了改进方案。新方案引入了中心向量分类法的思想。通过实验,对改进的KNN算法、中心向量算法和传统的KNN算
复旦谭松波的,别人辛苦整理,免费发布的东西,拿过来自己赚积分,绝了 数据说明 answer.rar为测试语料,共9833篇文档; train.rar为训练语料,共9804篇文档,分为20个类别。 训练
复旦中文文本数据集,包含训练集与测试集,数据集为TXT格式,可以进行文本分类实验,机器学习,深度学习,需要的可以下载。
Bagging算法在中文文本分类中的应用
中文文本分类语料(复旦)-训练集和测试集 这个链接是训练集,本语料库由复旦大学李荣陆提供。test_corpus为测试语料,共9833篇文档;train_corpus为训练语料,共9804篇文档,两个
论文《文本分类中改进的特征加权方法》,和大家分享~~
暂无评论