pytorch实现seq2seq时对loss进行mask的方式
用户评论
推荐下载
-
动手学深度学习Task04机器翻译及相关技术注意力机制与Seq2seq模型Transformer
Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经
8 2021-01-15 -
Task04机器翻译及相关技术注意力机制与Seq2seq模型Transformer知识点总结
机器翻译 把一种语言自动翻译为另一种,输出的是单词序列(其长度可能与原序列不同) 步骤为:数据预处理 —> Seq2Seq模型构建 —> 损失函数 —> 测试 数据预处理: 读取数据
18 2021-01-15 -
动手学DL Task4机器翻译及其技术加注意力机制与Seq2seq模型加Transformer
机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度
11 2021-01-10 -
动手学深度学习Task04机器翻译及相关技术注意力机制与Seq2seq模型Transformer
【一】机器翻译及相关技术 机器翻译(MT): 将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出的是单词序列而不是单个单词。 输出序列的长
6 2021-01-31 -
RNA seq Intro
很好的ngs入门简介,介绍了RNA-seq
20 2020-06-08 -
PhysDime Seq源码
PhysDime-Seq
5 2021-03-02 -
动手学深度学习task4机器翻译及相关技术注意力机制与Seq2seq模型Transformer笔记
系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度
17 2021-01-15 -
动手学深度学习笔记Task04机器翻译及相关技术注意力机制与Seq2seq模型Transformer
机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序
23 2021-01-15 -
谷歌开源神经机器翻译模型底层框架seq2seq.zip
去年,谷歌发布了GoogleNeuralMachineTranslation(GNMT),即谷歌神经机器翻译,一个sequence-to-sequence(“seq2seq”)的模型。现在,它已经用于
21 2020-06-08 -
RSCS RNA seq和小RNA seq组合策略源码
RSCS 在这里,我们开发了一种集成了RNA-seq和小RNA-seq数据(称为RSCS)的计算流水线,该策略极大地提高了多种哺乳动物样品中转录组注释的分辨率和准确性。
10 2021-04-19
暂无评论