论文研究 语义关联和文本蕴涵的多任务学习
最近,成功地提出了几种深度学习模型,并将它们应用于解决不同的自然语言处理(NLP)任务。 但是,这些模型基于单任务监督学习解决了问题,并且没有考虑任务之间的相关性。 基于这种观察,本文实现了一种多任务学习模型,可以同时联合学习两个相关的NLP任务,并进行了实验,以评估联合学习这些任务与单独学习相比是否可以提高系统性能。 此外,我们将我们的模型与最新的学习模型(包括多任务学习,转移学习,无监督学习和基于特征的传统机器学习模型)进行了比较。 本文旨在1)在训练相关的NLP任务中显示多任务学习优于单任务学习的优势; 2)说明各种编码结构对所提出的单任务和多任务学习模型的影响; 3)比较多任务学习和其
暂无评论