Libonnx 轻巧的便携式纯C99 onnx inference engine适用于具有硬件加速支持的嵌入式设备。 入门 可以将库的.c和.h文件放入项目中,并与之一起编译。 在使用之前,应为其分配struct onnx_context_t *并且您可以传递一个struct resolver_t *数组来进行硬件加速。 文件名是onnx模型格式的路径。 struct onnx_context_t * ctx = onnx_context_alloc_from_file(filename, NULL , 0 ); 然后,您可以使用onnx_tensor_search函数