nvidia bert:在NVIDIADeepLearningExamplesPyTorchLanguageModelingBERT的fork上使用onnxru
BERT对于PyTorch 该存储库提供了脚本和配方来训练PyTorch的BERT模型,以实现最先进的准确性,并且已由NVIDIA测试和维护。 此示例包含Microsoft进行的修改,以将onnxruntime用作PyTorch的培训后端。 性能数字来自原始的NVIDIA存储库,并不反映onnxruntime的使用。 目录 型号概述 BERT,或来自变压器的双向编码器表示,是一种预训练语言表示的新方法,它可以在各种自然语言处理(NLP)任务中获得最新的结果。 该模型基于 。 NVIDIA的BERT实施是的优化版本,在Volta V100 GPU上利用混合精度算术和Tensor内核,可以在保持
文件列表
nvidia-bert-master.zip
(预估有个78文件)
nvidia-bert-master
vocab
vocab
226KB
inference.py
14KB
pyt_patch
symbolic_opset10.py
9KB
.dockerignore
710B
file_utils.py
9KB
run_glue.py
31KB
bind_pyt.py
6KB
暂无评论