《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
用户评论
推荐下载
-
pytorch学习之注意力机制
Attention 是一种通用的带权池化方法,输入由两部分构成:询问(query)和键值对(key-value pairs)。 不同的attetion layer的区别在于score函数的选择,两种常
18 2021-01-17 -
笔记2动手学深度学习
资料来源:伯禹学习平台。 概念整理 K折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validat
23 2021-01-17 -
动手学深度学习笔记2
第二次打卡内容 Task1 过拟合欠拟合,梯度消失,爆炸,LSTM,GRU Tsak2 机器翻译,Seq2Seq, Transformer Task3 卷积神经网络基础和进阶,leNet 过拟合与欠拟
22 2021-02-01 -
动手学深度学习笔记2
模型过拟合与欠拟合 首先我们需要区分训练误差和泛化误差。一般来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训
18 2021-02-01 -
Python PyTorch实现的轻量seq2seq文本摘要
PyTorch实现的轻量seq2seq文本摘要
55 2020-07-17 -
ChatGirl ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot ChatGirl一个基于TensorFlow Seq2
中文文档: : 介绍 [正在开发中,它尚不能很好地运行。但是您可以训练并运行它。] ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot。 TensorFlow新闻 T
11 2021-02-25 -
seq2seq layout analysis基于send2seq的end2end布局分析源码
票据类版面分析算法 当前OCR之后的版本面分析工作大家都是规则编写的,本人也遭受规则之苦,看到ocr输出的一大堆文字和坐标就头皮发麻。一个基于seq2seq的端到端版面分析算法,希望能够帮到各位ocr
6 2021-04-26 -
注意力机制与外部记忆
技术文档分享如有需要,请私信博主获取。
6 2024-05-03 -
nlp中的Attention注意力机制加Transformer详解
根据通用近似定理,前馈网络和循环网络都有很强的能力。但为什么还要引入注意力机制呢?计算能力的限制:当要记住很多“信息“,模型就要变得更复杂,然而目前计算能力依然是限制神经网络发展的瓶颈。优化算法的限制
34 2021-03-05 -
pytorch实现seq2seq时对loss进行mask的方式
今天小编就为大家分享一篇pytorch实现seq2seq时对loss进行mask的方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
26 2020-09-21
暂无评论