bert chainer:“ BERT:针对语言理解的深度双向变压器的预训练”的Chainer实现 源码
谷歌AI的BERT模型的Chainer实现,并带有一个脚本来加载谷歌的预训练模型 该存储库包含库的Chainer重新实现,该存储论文雅各布·德夫林,张明伟,张建伟,李健和Kristina Toutanova的。 此实现可以为BERT加载任何预训练的TensorFlow检查点(尤其是),并提供一个转换脚本(请参见)。 在当前的实现中,我们可以 构建BertModel并从TensorFlow加载预训练的检查点 使用BERT执行句子级分类任务(在GLUE上)( run_classifier.py ) 使用BERT进行令牌级别的分类任务(在SQuAD上)( run_squad.py ) 从句子
文件列表
bert-chainer-master.zip
(预估有个32文件)
bert-chainer-master
tokenization.py
9KB
run_classifier.py
21KB
convert_tf_checkpoint_to_chainer.py
3KB
extract_features.py
12KB
__init__.py
615B
bert-tf
tokenization.py
8KB
test_bert_tf.py
28KB
modeling_test.py
9KB
暂无评论