# 中文NLP
bert中文NLP模型
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模
复旦nlp中文分词
复旦nlp中文分词,可以对中文文本词语切分,自然语言处理
简单理解NLP中文分词
什么是中文分词 中文分词指将一个汉字序列切分成一个个单独的词。 中文分词的难题 分词规则(粒度)问题:不同应用对粒度的要求不一样
python NLP中文版
《python自然语言处理》的中文版,一位大牛翻译的,属义务翻译,非常经典的一本书,对自然语言处理非常有帮助。
北大NLP课件中文分词
北大詹卫东课件,详解中文分词的算法及发展状况。
中文垃圾短信数据集NLP
分文标签和数据两类,其中标签为1的是垃圾短信,标签为0的是正常短信例子:0乌兰察布丰镇市法院成立爱心救助基金1(长期诚信在本市作
中文问答系统nlp论文合集
本压缩包包含45篇论文合集,搞自然语言处理的,智能问答系统的可以看看,从万方上下载的,只用作学习,勿用其他用途
All4NLP全部用于NLP尤其是中文源码
All4NLP 框架和工具包 使用PyTorch深度学习NLP 文本分类器,序列标记器,联合意图插槽模型和上下文意图插槽模型 C
NLP练习NLP源码
自然语言处理 练习自然语言处理 naive_bayes word2vec practice리练习
nlp nlp实验源码
nlp:NLP实验