Disaster_response_pipeline:ML管道使用NLTK对紧急消息进行分类并使用Flask可视化结果 源码
Disaster_response_pipeline 数据科学家纳米学位计划的数据工程模块项目,使用来自数据(先前为FigureEight) 目标 在自然灾害期间,通常会有大量的压倒性信息。 该项目的目标是建立数据处理和解释管道,以加快资源分配过程。 入门 您需要安装Python,以及以下库: 麻木 大熊猫 系统 sqlalchemy的 斯克莱恩 恩特克 警告 回覆 泡菜 json 阴谋地 细绳 烧瓶 怎么跑 在项目的根目录中运行以下命令来设置数据库和模型。 运行ETL管道以清理数据并将其存储在数据库中python data/process_data.py data/disaster_messages.csv data/disaster_categories.csv data/disaster_response.db 运行训练分类器并保存python models/train_c
文件列表
Disaster_response_pipeline-main.zip
(预估有个15文件)
Disaster_response_pipeline-main
notebooks
ETL Pipeline Preparation.ipynb
146KB
ML Pipeline Preparation.ipynb
97KB
models
train_classifier.py
6KB
classifier.pkl
15.34MB
README.md
1KB
screenshots
message_classification.png
182KB
暂无评论