动手学深度学习 by Aston Zhang ,Mu Li(书签PDF+源码)
用户评论
推荐下载
-
动手学深度学习Task03Task05
过拟合、欠拟合及其解决方案 训练误差:模型在训练数据集上表现出的误差。 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似——机器学习模型应关注降低泛化误差。
20 2021-02-01 -
14天动手学深度学习Task2
一、梯度消失、梯度爆炸以及Kaggle房价预测 随机初始化模型参数 在神经网络中,通常需要随机初始化模型参数。下面我们来解释这样做的原因。 如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时
20 2021-02-01 -
过拟合与欠拟合动手学深度学习
权重衰减 方法 权重衰减等价于 L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。 L2 范数正则化(regulari
26 2021-02-01 -
动手学深度学习Pytorch版Task03
过拟合、欠拟合及其解决方案 1.概念 无法得到较低的训练误差称作欠拟合 得到的误差极小即远小于训练集的误差称作过拟合 2.模型选择 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使
32 2021-02-01 -
动手学深度学习Task3Task5
知识点协变量偏移标签偏移概念偏移 协变量偏移 在传统机器学习中,一个常见的问题的协变量偏移(Covariate Shift)。协变量是一个统计学概念,是可能影响预测结果的统计变量。 在机器学习中,协变
12 2021-02-01 -
动手学深度学习Pytorch版Task04
机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出
26 2021-01-17 -
动手学深度学习Task03Task05
过拟合、欠拟合及其解决方案 过拟合和欠拟合 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为
31 2021-01-16 -
动手学深度学习.pdf高清文字中文版无套路
高清文字中文版无套路,面向中文读者的能运行、可讨论的深度学习教科书,人工智能机器学习深度学习领域重磅教程图书,美亚科学家作品,交互式实战环境下动手学深度学习的全新模式,原理与实战紧密结合
14 2020-05-23 -
动手学习深度学习pytorch
house price 学习记录。 %matplotlib inline import torch import torch.nn as nn import numpy as np import pa
27 2021-01-16 -
动手实战深度学习
这是最新的一期深度学习内部资料,里面涉及到BP神经网络、CNN、RNN以及优化算法、如何调参等。适合零基础和有一些基础像加深对BP神经网络理解的初学者
38 2019-04-06
暂无评论