《动手学深度学习》task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer笔记
用户评论
推荐下载
-
动手学深度学习笔记2
第二次打卡内容 Task1 过拟合欠拟合,梯度消失,爆炸,LSTM,GRU Tsak2 机器翻译,Seq2Seq, Transformer Task3 卷积神经网络基础和进阶,leNet 过拟合与欠拟
22 2021-02-01 -
动手学深度学习笔记2
模型过拟合与欠拟合 首先我们需要区分训练误差和泛化误差。一般来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训
18 2021-02-01 -
Python PyTorch实现的轻量seq2seq文本摘要
PyTorch实现的轻量seq2seq文本摘要
55 2020-07-17 -
ChatGirl ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot ChatGirl一个基于TensorFlow Seq2
中文文档: : 介绍 [正在开发中,它尚不能很好地运行。但是您可以训练并运行它。] ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot。 TensorFlow新闻 T
11 2021-02-25 -
seq2seq layout analysis基于send2seq的end2end布局分析源码
票据类版面分析算法 当前OCR之后的版本面分析工作大家都是规则编写的,本人也遭受规则之苦,看到ocr输出的一大堆文字和坐标就头皮发麻。一个基于seq2seq的端到端版面分析算法,希望能够帮到各位ocr
6 2021-04-26 -
nlp中的Attention注意力机制加Transformer详解
根据通用近似定理,前馈网络和循环网络都有很强的能力。但为什么还要引入注意力机制呢?计算能力的限制:当要记住很多“信息“,模型就要变得更复杂,然而目前计算能力依然是限制神经网络发展的瓶颈。优化算法的限制
34 2021-03-05 -
注意力机制与外部记忆
技术文档分享如有需要,请私信博主获取。
6 2024-05-03 -
pytorch实现seq2seq时对loss进行mask的方式
今天小编就为大家分享一篇pytorch实现seq2seq时对loss进行mask的方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
26 2020-09-21 -
text summarization tensorflow Tensorflow seq2seq文本汇总的实现源码
张量流文本摘要 使用的文本汇总的简单Tensorflow实现。 模型 具有注意力机制的编码器-解码器模型。 词嵌入 使用初始化单词嵌入。 编码器 使用了带有LSTM单元。 解码器 使用LSTM进行训练
9 2021-04-22 -
深度解析matlab中的注意力机制
在matlab中,注意力机制是指模型可以专注于处理指定区域或特征,在计算机视觉、自然语言处理等领域有广泛的应用。本文将深度解析matlab中的注意力机制的概念、原理和应用。我们将从注意力机制的定义、实
9 2023-06-12
暂无评论