Ta上传的资源 (0)

bert模型放在 bert_pretain目录下,每个目录下都是三个文件: pytorch_model.bin bert_config.json vocab.txt 已经在THUCNews上面预训练过。 我从THUCNews中抽取了20万条新闻标题文本长度在20到30之间。一共10个类别,每类2万条

命名实体识别代码,解压即可用 # BERT-BiLSTM-CRF BERT-BiLSTM-CRF的Keras版实现 ## BERT配置 1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型: - https://storage.googleapis.c

用word2vec的方法做词向量...........................................................................................................................