Dureader Bert:BERT Dureader多文档阅读理解排名第七 源码
Dureader-Bert 2019 Dureader机器阅读理解单模型代码。 哈工大讯飞联合实验室发布的中文全词覆盖BERT 只需将要加载的预训练模型换为压缩包内的chinese_wwm_pytorch.bin,即从_pretrained函数中weights_path和config_file即可。 谷歌发布的中文伯特与哈工大发布的中文全词覆盖BERT在Dureader上的效果对比 模型 ROUGE-L BLEU-4 谷歌bert 49.3 50.2 哈工大伯特 50.32 51.4 由于官方没有指定测试集,实验数据是在验证集上跑出来的 许多人询问,说明一下: 1,数据处理是自己写