distiller:Intel AI Lab的Neural Network Distiller:用于神经网络压缩研究的Python软件包。 https:inte
| | | | | Distiller是用于神经网络压缩研究的开源Python软件包。 网络压缩可以减少神经网络的内存占用量,提高其推理速度并节省能源。 Distiller提供了一个环境,用于原型设计和分析压缩算法,例如稀疏性诱导方法和低精度算术。 目录 特色功能 自动压缩(AMC) 修剪重量使用幅度阈值,灵敏度阈值,目标稀疏性级别和激活统计信息进行逐元素修剪 结构化修剪 卷积:2D(内核方式),3D(过滤器方式),4D(分层方式)和通道方式结构化修剪。 完全连接:按列和按行结构修剪。 结构组(例如4个过滤器的结构)。 使用权重或激活标准(Lp范数,APoZ,梯度,随机等)进行结构排
文件列表
distiller:Intel AI Lab的Neural Network Distiller:用于神经网络压缩研究的Python软件包。 https:intellabs.github.iodistiller
(预估有个515文件)
logging.conf
601B
logging.conf
1KB
logging.conf
1KB
logging.conf
1KB
sensitivity_filter_wise.csv
16KB
sensitivity.csv
30KB
resnet50.imagenet.sensitivity.csv
81KB
resnet50.imagenet.sensitivity_filter_wise.csv
43KB
sensitivity.csv
28KB
sensitivity_filter_wise.csv
43KB
暂无评论