Densely Guided Knowledge Distillation using Multiple Teacher Assistants 随着深度神经网络的成功,正在积极研究指导从大型教师网络学习小型学生网络的知识提炼,以进行模型压缩和转移学习。但是,当学生和老师的模型大小明显不同时,很少有研究可以解决学生网络学习效果差的问题。.. 在本文中,我们提出了使用多个助教的密集指导知识提炼,这些助教逐渐减小模型的大小,以有效地弥合师生网络之