BERT(利用transformer进行双向编码表征)是一种预训练语言表示的新方法,它在一系列自然语言处理(NLP)任务中获得了最先进的结果。该资源翻译了BERT Google官方提供的指南。翻译的目的是因为当初为了了解与使用BERT模型,现在将资源上传希望能够为需要的人提供帮助。