此存储库包含NAACL 2019论文“从预训练的语言模型进行学习的尴尬简单方法”的源代码 介绍 本文提出了一种简单的转移学习方法,用于解决灾难性遗忘问题。 我们预先训练语言模型,然后将其转移到新模型,并在其中添加循环层和注意机制。 基于多任务学习,我们使用损失的加权总和(语言模型损失和分类损失),并在(分类)任务上微调预训练模型。 建筑学 第一步: 基于LSTM的单词级语言模型的预训练 第二步: 在分类任务上微调语言模型(LM) 使用辅助LM损耗 使用2个不同的优化器(1个用于预训练零件,1个用于新添加零件) 依次解冻 参考 @inproceedings{chronopoulou-etal-2019-embarrassingly, title = "An Embarrassingly Simple Approach for Transfer Learning from P