bert_language_understanding:用于语言理解的深度双向变压器的预训练:TextCNN的预训练 源码

qqabroad5618 7 0 ZIP 2021-02-17 10:02:21

Google的bert提出的有关语言理解的想法:训练TextCNN 目录 1.引言 2.性能 3.用法 4.样本数据,数据格式 5.对用户的建议 6.BERT的简短描述 7.作者对BERT的详细描述 8,预训练语言理解任务 9,环境 10.实施细节 11,更好地理解变压器和BERT的问题 12,玩具任务 13.多标签分类任务 14.TODO列表 15,结论 16,参考文献 介绍 预训练就是您所需要的! BERT最近在10多个nlp任务上取得了最新的技术成果。 这是用于语言理解的深度双向变压器预训练的张量流实现 (Bert)和Attention是您所需要的(变形金刚)。 更新:完成了这两篇

用户评论
请输入评论内容
评分:
暂无评论