Ta上传的资源 (0)

NLP从零开始:使用序列到序列网络和注意力机制进行翻译。Pytorch教程,自然语言处理部分教程,TRANSLATION WITH A SEQUENCE TO SEQUENCE NETWORK AND ATTENTION教程,seq2seq_translation_tutorial_CN.ipynb

keras的inception_v3预训练模型,国内下载比较麻烦,好不容易下下来,分享一下,使用方法写了个简单的教程,压缩包中有三个文件: > inception_v3_weights_tf_dim_ordering_tf_kernels.h5 #预训练模型文件 > inceptionv

Multi30k数据集,是torchtext中集成的机器翻译相关的数据集之一,运行PyTorch的教程LANGUAGE TRANSLATION WITH TORCHTEX时,由于网络原因无法自动下载,将本压缩包解压并放置到torchtext的root目录下就可以运行。

wikitext-2数据集,是torchtext中自然语言建模数据集之一,其是从Wikipedia的优质文章和标杆文章中提取得到,运行PyTorch的教程SEQUENCE-TO-SEQUENCE MODELING WITH NN.TRANSFORMER AND TORCHTEXT时,由于网络原因无法

PyTorch自然语言处理部分教程翻译的ipynb:使用torchtext进行文本分类。text_sentiment_ngrams_tutorial-CN.ipynb。由于国内无法自动下载数据,修改代码为手动下载,加载本地数据模式,文件内有AG_news数据集压缩包ag_news_csv.tar.g

PyTorch自然语言处理部分教程翻译的ipynb:使用TorchText进行语言翻译。torchtext_translation_tutorial-CN.ipynb。训练了可以将德语翻译成英语的包含注意力(attention )机制的序列到序列(sequence-to-sequence)模型。

PyTorch自然语言处理部分教程翻译的ipynb:基于nn.Transformer和TorchText构建序列到序列模型。transformer_tutorial-CN.ipynb,原文是:SEQUENCE-TO-SEQUENCEMODELINGWITHNN.TRANSFORMERANDTORCH