Pytorch:批量数据(batch)分割

kian56638 21 0 PDF 2021-02-01 17:02:59

原文地址 分类目录——Pytorch 深度学习可行的一个前提是假设数据之间是相互独立的,用相关的数据进行训练会让训练的模型局限于满足一撮数据,没有实用性。而更多的现实情况是数据之间存在着或多或少的相关性,所以深度学习中常用海量数据来弥补数据间相关所产生的训练模型的不足。在大量数据中学习中,小批量(batch)梯度下降是一种比较好的方式,每次选取一小部分数据来进行参数更新,既能沿着较好的方向更新,又能兼顾训练的效率 另外,从数据集中随机(不连续)抽取数据也是可以减弱数据相关性的影响的。这一点在随机森林中的到了充分的利用(这里的随机与随机森林中的随机不完全相同) pytorch中引入了对数据进行切

用户评论
请输入评论内容
评分:
暂无评论