ML 模型 部署 泊坞窗 源码
ML-模型-部署-泊坞窗 我试图展示一种示例方法来创建可由利益相关者使用的某些软件。 具体来说,我们将创建一个可查询以从机器学习模型获得预测的Web服务。 该职位主要供那些想要超越仅开发模型的机器学习从业人员使用。 工作流程 在本地系统上训练机器学习模型。 将推理逻辑包装到flask应用程序中。 使用Docker容器化Flask应用程序。 使用model_train.py在虹膜数据集上训练逻辑回归模型,并生成一个腌制的模型文件(iris_trained_model.pkl)。使用app.py将推理逻辑包装在烧瓶服务器中,以将模型用作REST Web服务:执行命令python app.py
文件列表
ML-model-deploy-docker-main.zip
(预估有个7文件)
ML-model-deploy-docker-main
Dockerfile
210B
requirements.txt
24B
README.md
2KB
model_train.py
1001B
app.py
974B
main.py
125B
iris_trained_model.pkl
966B
暂无评论