伯禹学习平台:动手学深度学习3
用户评论
推荐下载
-
动手学习深度学习–笔记二
1 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(ov
17 2021-02-01 -
MXNET_动手学习深度学习
李沐大神的动手学习深度学习,非常优秀的一本书,有github源码
38 2019-05-13 -
动手学深度学习PyTorch实现八–AlexNet模型
AlexNet模型1. AlexNet模型介绍1.1 AlexNet的特点1.2 AlexNet的结构1.3 AlexNet参数数量2. AlexNet的PyTorch实现2.1 导入相应的包2.2
29 2021-01-16 -
动手学深度学习PyTorch版day02
目录 Day02 1.过拟合,欠拟合及解决 训练误差 泛化误差 过拟合 过拟合解决方案 欠拟合 2.梯度消失,梯度爆炸 考虑环境因素 协变量偏移 标签偏移 概念偏移 3.卷积神经网络基础 ALex
15 2021-01-16 -
过拟合与欠拟合动手学深度学习
权重衰减 方法 权重衰减等价于 L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。 L2 范数正则化(regulari
24 2021-02-01 -
动手学深度学习Pytorch版Task03
过拟合、欠拟合及其解决方案 1.概念 无法得到较低的训练误差称作欠拟合 得到的误差极小即远小于训练集的误差称作过拟合 2.模型选择 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使
28 2021-02-01 -
DAY2动手学深度学习PyTorch版
Task03: 过拟合和欠拟合 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(ov
20 2021-01-16 -
动手学深度学习卷积神经网络LeNet
使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: 卷积层保留输入形状
9 2021-01-16 -
动手学深度学习PyTorch实现七–LeNet模型
LeNet模型1. LeNet模型2. PyTorch实现2.1 模型实现2.2 获取数据与训练 1. LeNet模型 LeNet分为卷积层块和全连接层块两个部分。下面我们分别介绍这两个模块。 卷积层
13 2021-01-16 -
动手学深度学习Pytorch版Task05
卷积神经网络基础 二维卷积层 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积
18 2021-01-16
暂无评论