主流的序列转换模型都是基于复杂的循环神经网络或卷积神经网络,且都包含一个encoder和一个decoder。Transformer是一个新的、简单的网络架构,它只基于单独的attention机制,完全避免使用循环和卷积。在两个翻译任务上表明,我们的模型在质量上更好,同时具有更高的并行性,且训练所需要的时间更少。Transformer在WMT2014英语-德语的翻译任务上取得了28.4的BLEU评分。在现有的表现最好模型的基础上,包括整合模型,提高了2个BLEU评分。在WMT2014英语-德语的翻译任务上,我们的模型在8个GPU上训练了3.5天,创造了单模型的SOTA结果,BLEU分数为41.8。Transformer能很好的适应于其它任务。
Transformer基于attention机制的序列转换模型
用户评论
推荐下载
-
DNA序列转换把DNA序列倒转
这是一个可以把DNA序列进行倒转的小软件.输入一个序列,输出序列的倒转.里面有源代码,有DEBUG版本,有RELEASE版本.谢谢支持.
51 2019-05-13 -
DFSMN T中文语音识别中的Transformer强语言模型
一种新的中文语音识别方法,称为DFSMN-T。DFSMN-T是结合了强语言模型Transformer的一种模型,通过对中文语音进行识别和转换来提高识别准确性和效率。本文详细介绍了DFSMN-T的结构和
6 2023-07-22 -
20212022年的高精度模型swin transformer.convnext等
目前Transformer应用到图像领域主要有两大挑战视觉实体变化大在不同场景下视觉Transformer性能未必很好图像分辨率高像素点多Transformer基于全局自注意力的计算导致计算量较大针对
5 2023-02-08 -
基于角色的访问控制模型的扩充和实现机制研究
基于角色的访问控制模型的扩充和实现机制研究
26 2019-05-04 -
基于数据密度和Transformer IkNN的烟风安全风险感知模型白皮书
本文详细介绍了基于数据密度和Transformer-IkNN技术的烟风系统安全风险感知模型。该模型可通过对风险态势进行实时感知和分析,实现对掺烧机组烟风系统的智能监控和预警。文章重点阐述了模型的设计原
4 2023-09-04 -
读书笔记之16Attention机制说明及代码实现
AttentionModel的使用,利用Keras框架实现的,具体代码,以后会在GitHub上公布
15 2019-02-26 -
基于非线性序转换的层次分析模型
为了解决复杂层次结构中方案排序问题,将排序度量映射到高维状态空间,挖掘隐藏在指标隶属度中的分类信息,利用区分权滤波算法将一维空间上无法实现的非线性序关系转换转化为高维空间上隶属度向量间的非线性转换,通
17 2020-08-09 -
平稳时间序列的ARIMA模型
有一类描述时间序列的重要随机模型受到了人们的广泛关注,这就是所谓的平稳模型。这类模型假设随机过程在一个不变的均值附近保持平衡。其统计规律不会随着时间的推移发生变化。平稳的定义分为严平稳和宽平稳。
59 2019-03-17 -
时间序列数据的回归模型
通过数学模型介绍了,非常热门,应用广泛,高大上的一些机器学习模型
47 2019-01-11 -
基于Matlab的ARMA模型时间序列分析法仿真
关于时间序列的资料,即ARMA模型。 基于Matlab的ARMA模型时间序列分析法仿真
43 2018-12-20
暂无评论