预训练与微调迁移学习 一般而言,我们可以根据一个已经训练过的、比较满意的模型进行训练调整,作用于新的数据集,这就是预训练与微调。当,我们的预训练模型的权重使用在新的数据集中,这个就是迁移学习的体现。 很少人会仅仅使用自己的资源进行训练卷积神经网络,个体拥有的数据资源是有限的,但是如ImageNet拥有的资源是有120 万张图片等级的规模,所以理论上使用库提供的预训练模型可以节省时间、提高精度,再不济也可以使用自己的预训练模型。