[深度学习]动手学深度学习笔记 8
Task4——注意力机制与Seq2seq模型 8.1 注意力机制 所谓的注意力机制,其实就是让系统学会注意力-即关注重点信息忽略无关信息。带有注意力机制的系统,不仅可以自主学习注意力,还可以帮助我们更好的理解神经网络。现在,在计算机视觉当中大多数都是通过掩码来生成注意力,掩码本质上是一组新的权重,可以帮助我们找到需要关注的信息。 目前主要演化出了两种注意力,一种是软注意力,其重点关注的是区域或通道,这种注意力是固定的,可微的;另一种是强注意力,其重点关注的是点,不可微,一般通过强化学习获得。 当我们人类在看东西时,一般会将注意力集中注视着某个地方,而不会关注全部所有信息。例如当我们一看到下面
用户评论
推荐下载
-
动手学深度学习gluon_tutorials.pdf
动手学深度学习gluon_tutorials.pdf
18 2019-05-13 -
动手学深度学习_mxnet_gluon_totorials
从社区里找到的,大神李沐的教程。大家可以配合B站的视频,照着这个教程学习,非常好。https://www.bilibili.com/video/av14327359?from=search&seid=
43 2019-07-18 -
动手学深度学习v2.pdf
《动手学深度学习v2》.pdf
186 2021-04-09 -
动手学深度学习学习笔记tf2.0版3.8多层感知机
注意这里的bh维度为 1 * h,计算时使用广播机制,进行计算 所以引入激活函数 %matplotlib inline import tensorflow as tf from matplotlib
7 2021-01-16 -
深度学习笔记
很详细的吴恩达老师的深度学习笔记,分为神经网络、卷积网络、人脸识别、序列模型等方面的知识,整理的很仔细。
22 2019-09-14 -
DATAWHALE动手学深度学习PyTorch笔记记录2attention mask
【Attention中mask pad的weight的做法】 在attention中,对attention score进行softmax时,需要考虑到query与pad计算得到的score应该忽略。我
11 2021-01-10 -
动手深度学习书代码
本书为面向中文读者的能运行、可讨论的深度学习教科书。
27 2019-02-20 -
动手学习深度学习Task04
文章目录GRULSTM深度循环神经网络双向循环神经网络 GRU RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) ⻔控循环神经网络:捕捉时间序列中时间步距离较大的依赖关系 GRU: Rt=σ(X
10 2021-01-16 -
动手学习深度学习task05
文章目录卷积神经网络基础特征图与感受野填充和步幅1×1卷积层卷积层与全连接层的对比池化层LeNetAlexNet创新VGG创新NiN创新GoogLeNet创新 卷积神经网络基础 特征图与感受野 二维卷
11 2021-01-30 -
DAY2动手学习深度学习
【任务安排】: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天)
21 2021-01-31
暂无评论