这个任务其实是一个调包的过程,但需要了解一下流程。熟悉了这个流程后,NLP领域的很多问题都可以按照这个流程去做,比如对话生成、机器翻译、文本摘要等任务。到了今天在NLP领域的所有任务,都可以用Transformer结合Hugging Face去玩。词向量的制作已经不再需要,大多数算法工程师和科研人员都不会参与。我们只需要在别人的模型和词库基础上微调模型来解决自己的任务。调用现成的模型是最方便的做法。在此之前,需要配置好深度学习环境,从transformers调出一个pipeline模块,比如sentiment-analysis就是情感分析接口。
深入理解Transformers与Hugging Face应用
文件列表
Transformer工具包基本操作实例解读之模型调用.zip
(预估有个7文件)
1-Transformers
2-模型的加载与保存.ipynb
5KB
1-Tokenizer.ipynb
104KB
pytorch_model.bin
413.25MB
config.json
682B
.ipynb_checkpoints
Untitled-checkpoint.ipynb
72B
1-Tokenizer-checkpoint.ipynb
104KB
2-模型的加载与保存-checkpoint.ipynb
72B
暂无评论