DistillGANs:尝试提炼生成广告网络 源码
使用知识蒸馏再现压缩GAN 首先,非常感谢作者分享这篇出色的论文和我们。 该存储库包含针对从纸上提出的想法的培训和测试代码。 如果实施中存在一些错误问题,请给我发送电子邮件至 。 背景资料 在本文中,作者使用一种简单而有效的方法通过知识蒸馏(aka KD)压缩GAN(特别是WGAN-GP),据我所知,这是将KD用于GAN的第一个成功尝试。 从概念上讲,他们尝试了两种不同的方法来实现这一目标。 首先是 直接模仿老师的发电机输出。 第二个是 两者都利用了简单的GAN学习策略和上述KD策略。 在此回购中,我们重点介绍第二个。 我们还可以调整代码中的超参数以近似尝试第一个。 要求 pip install - r requirements . txt 实作 注意:我们仅将本文作为一个简单的开始,如果有更多关于蒸馏GAN的优秀论文,我们可以简单地添加新论文的实现,而不必更改代码组织。 代码组织
文件列表
DistillGANs-main.zip
(预估有个29文件)
DistillGANs-main
configs.py
4KB
models
LeNet5.py
1KB
VGG16.py
3KB
KDforGAN.py
4KB
main.py
1KB
train
trainKDforGAN.py
9KB
models_def.py
2KB
暂无评论