disaster_response_pipeline:使用图八提供的数据来构建用于对灾难消息进行分类的管道 源码
灾害响应管道项目 目录 指示: 在项目的根目录中运行以下命令来设置数据库和模型。 运行ETL管道以清理数据并将其存储在数据库中python data/process_data.py data/disaster_messages.csv data/disaster_categories.csv data/DisasterResponse.db 运行用于训练分类器并保存python models/train_classifier.py data/DisasterResponse.db models/classifier.pkl ML管道 在应用程序目录中运行以下命令以运行您的Web应用程序。 python run.py 转到 项目概况 在这个Udacity项目中,我们将使用提供的数据来构建用于对灾难消息进行分类的管道。 我们创建了一个ETL管道来清理和转换数据,然后将其存储在SQLit
文件列表
disaster_response_pipeline-main.zip
(预估有个13文件)
disaster_response_pipeline-main
models
train_classifier.py
4KB
classifier.pkl
1.98MB
requirements.txt
13KB
README.md
3KB
screenshots
result.png
304KB
main.png
344KB
data
暂无评论