动手学深度学习PyTorch版–Task4、5–机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;;卷积神经网络基础;leNet;卷积
一.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 class Encoder(nn.Module): def __init__(self, **kwargs): super(Encoder, self).__init__(**kwargs) def forward(self, X, *args
用户评论
推荐下载
-
深度学习与卷积神经网络.zip
该文件为深度学习与卷积神经网络的matlab程序,里面包含了卷积神经网络的代码、训练程序以及结合应用的相关程序,有全套注释,适合初学卷积神经网络与深度学习的伙伴.
16 2020-07-18 -
卷积神经网络LeNet图像分类
此代码包含使用LeNet卷积神经网络进行图像分类所需的步骤。代码包括数据预处理、模型训练和评估。
4 2024-05-01 -
深度卷积神经网络CNN的Theano实现lenet
深度卷积神经网络CNN的Theano实现(lenet),还包括一个单独的卷积层网络
73 2018-12-09 -
pytorch学习之注意力机制
Attention 是一种通用的带权池化方法,输入由两部分构成:询问(query)和键值对(key-value pairs)。 不同的attetion layer的区别在于score函数的选择,两种常
22 2021-01-17 -
pytorch seq2seq example基于实用pytorch和更多额外功能的完全批处理的seq2seq示例源码
pytorch-seq2seq-example:基于实用pytorch和更多额外功能的完全批处理的seq2seq示例
20 2021-02-07 -
神经网络与卷积网络:深度学习基石
深度学习基石:神经网络与卷积网络神经网络神经元模型:从生物神经元汲取灵感,构建人工神经元模型。激活函数:赋予神经网络非线性能力,模拟复杂函数关系。网络结构:探讨全连接神经网络,理解层级结构与
5 2024-04-27 -
task04–机器翻译及Transformer
(一)注意力机制 在“编码器—解码器(seq2seq)”中,解码器在各个时间步依赖相同的背景变量(context vector)来获取输入序列信息。当编码器为循环神经网络时,背景变量来自它最终时间步的
16 2021-02-01 -
pytorch task05卷积神经网络
pytorch task05 卷积神经网络 文章目录pytorch task05 卷积神经网络1.卷积神经网络基础1.1二维卷积层1.2填充和步幅1.3多输入通道和多输出通道1.4卷积层与全连接层的对
22 2021-01-16 -
深度卷积神经网络
深度卷积神经网络
54 2019-01-07 -
im2latex图像到LaTeX Seq2seq加带有光束搜索的注意力Tensorflow源码
Im2Latex Seq2Seq模型,具有“注意力+光束搜索”功能,可将图像搜索到LaTeX,类似于和。 检查。 安装 在Linux上安装pdflatex(从latex到pdf)和ghostsript
21 2021-03-02
暂无评论