BERT_Pretraining of Deep Bidirectional Transformers for Language Understanding
BERT全称BidirectionalEncoderRepresentationsfromTransformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。项目地址:https://github.com/google-research/bert#fine-tuning-with-bert
用户评论
推荐下载
-
Understanding SIP
The growing thirst among communications providers, their partners and subscribers for a new generati
8 2021-04-21 -
XLNet的论文2019Generalized Autoregressive Pretraining.pdf
CMU 与谷歌大脑提出的 XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果。令人激动的是,目前 XLNet 已经开放了训练代码和大型预训练模型,这又可以玩
8 2020-07-27 -
deploy transformers轻松部署来自HuggingFace的Transformers的最新语言模型源码
:rocket: 部署变形金刚 :hugging_face: 只需三行代码即可部署SOTA模型以生成文本 :laptop: 安装 显然需要和 。 pip install deploy-transfor
9 2021-04-04 -
BERT QuestionAns API BERT Question Answering API使用Google的BERT技术进行Question Answer
BERT-QuestionAns-API BERT Question Answering API使用Google的BERT技术进行Question Answering,在此存储库中,我们使用disti
27 2021-04-25 -
bert相关paper
bert相关paper
15 2020-12-22 -
bert原文.zip
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding论文原文
21 2020-10-03 -
BERT模型工程
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
19 2020-07-17 -
BERT pytorch源码
伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的B
7 2021-04-06 -
BERT QA源码
BERT-QA
10 2021-02-19 -
Deep Learning in Natural Language Processing邓力英文文字带目录版本
In recent years, deep learning has fundamentally changed the landscapes of a number of areas in arti
26 2021-04-18
暂无评论