torch seq2seq attention GRU递归和注意的seq2seq机器翻译的Torch 实现.zip
torch-seq2seq-attention, GRU递归和注意的seq2seq机器翻译的Torch 实现 torch-seq2seq-attention这是对神经机器翻译的一个轻微的修改,通过联合学习来调整和翻译。 模型这里模型基于 torch-seq2seq 。 模型中,递归编码器输出末端( 代表整个句子)的单个矢量,解码器从那
文件列表
torch-seq2seq-attention.zip
(预估有个12文件)
torch-seq2seq-attention-master
data.lua
11KB
.gitignore
17B
model_utils.lua
5KB
train.lua
5KB
README.md
3KB
sampling.lua
2KB
scale-image.lua
471B
helpers.lua
446B
draw-attention.lua
1KB
暂无评论