这个资源是我本人参赛使用BERT模型的全部代码取得15名的成绩供参赛的小伙伴参考.BERT全称为Bidirectional Encoder Representation from Transformers来自Transformers的双向编码表示谷歌发表的发的论文Pre traning of Deep Bidirectional Transformers for Language Understanding中提出的一个面向自然语言处理任务的无监督预训练语言模型.是近年来自然语言处理领域公认的里程碑模型.