动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer
机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数最高的句子(搜索空间太大) 集束搜索: 习题整理 注意力机制与Seq2seq模型 学习笔记
用户评论
推荐下载
-
图像注意力机制详解
图像注意力机制:基于图像中的特定区域分配权重的机制目标:突出图像中与特定任务相关的区域应用:目标检测、图像分割、视觉问答
4 2024-04-30 -
Biformer注意力机制研究
Biformer注意力机制论文深入探讨Biformer注意力机制的原理、应用和进展,为深度学习研究者提供宝贵的见解。
9 2024-05-01 -
ACMIX注意力机制解析
ACMIX注意力机制详解
4 2024-05-01 -
动手学深度学习Pytorch版本学习笔记Task4
1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能
21 2021-01-15 -
seq2seq.rar
深度学习:使用tensorflow1.x实现单词字母排序和文本摘要(使用了lstm、attention机制)
18 2020-08-31 -
2_seq2seq.py
利用sequence to sequence网络,实现传统信道编码技术的再现,这里使用的是一种翻译网络,即人工智能自然语言处理中的内容,按照翻译的逻辑完成信道编译码的工作减少误码率。
8 2020-10-27 -
机器翻译机制
机器翻译 机器翻译, 将一段文本从一种语言自动翻译为另一种语言。其 输出为单词序列。 处理步骤 数据预处理 分词 建立词典 输入模型 Encodr-Decoder Sequence to Sequen
15 2021-02-09 -
seq2seq chatbot使用TensorLayer的200行代码中的Chatbot源码
Seq2Seq聊天机器人 这是Twitter / Cornell-Movie Chatbot的200行实现,请在阅读代码之前阅读以下参考资料: (可选) 先决条件 Python 3.6 > =
5 2021-02-01 -
ChatGPT技术解密:揭秘注意力机制算法
深入解析ChatGPT技术背后的强大算法,包括其使用指南、技巧和常见问题解答。了解如何充分利用这款人工智能工具。
4 2024-05-07 -
Python一个简单的基于seq2seq模型的chatbot对话系统的tensorflow实现
基于seq2seq模型的简单对话系统的tf实现,具有embedding、attention、beam_search等功能,数据集是CornellMovieDialogs
27 2020-05-27
暂无评论