# BERT模型
BERT模型工程
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
bert中文NLP模型
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模
bert模型的Python实现
该文档主要是bert论文的Python代码实现,在多个数据集实现较好效果
BERT模型学习导读.pptx
这个演示文稿是对《BERT: Pre-training of Deep Bidirectional Transformers f
bert sklearn Google bert模型的sklearn包装器源码
scikit-learn包装器对BERT进行微调 一个scikit-learning包装器,可基于端口模型,以执行文本和令牌序列
bert TensorFlow代码和bert的预训练模型源码
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大
泰语BERT模型预训练模型分词模块
预训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分
bert base uncased预训练模型
来自 https://huggingface.co/bert-base-uncased/tree/main
官方bert中文预训练模型
Google官方中文Bert预训练模型,当前模型为bert base模型.
Tensorflow2.0Bert模型.rar
tensorflow2.o Bert模型 NER