onnx_transformers 加速的NLP管道以进行快速推理 :rocket: 在CPU上内置 :hugging_face: 变压器和ONNX运行时。 安装: pip install git+https://github.com/patil-suraj/onnx_transformers 用法: 注意:这是一个实验项目,仅在PyTorch中进行了测试 流水线API与变压器相似,只是有一些区别,下面将进行说明。 只需提供模型的路径/ URL,如果需要,它将从下载模型并自动创建onnx图并运行推理。 from onnx_transformers import pipeline #