pcl adversarial defense:在ICCV 2019中通过限制深度神经网络的隐藏空间进行对抗性防御 源码
通过限制深层神经网络(ICCV'19)的隐藏空间进行对抗性防御 该存储库是ICCV'19论文《的PyTorch实施,它。 为了对抗对抗性攻击,我们提出了原型一致性损失,以按类别区分深度网络的中间特征。 从图中可以看出,存在这样的对抗样本的主要原因是潜在特征空间中学习特征的紧密接近。 我们提供了用于重现论文结果的脚本。 克隆存储库 将此存储库克隆到所需的任何位置。 git clone https://github.com/aamir-mustafa/pcl-adversarial-defense cd pcl-adversarial-defense Softmax(交叉熵)训练 为了加快针对我们提出的损失形成聚类的过程,我们首先使用交叉熵损失训练模型。 softmax_training.py (用于初始softmax训练)。 经过培训的检查点将保存在Models_Softmax文
文件列表
pcl-adversarial-defense-master.zip
(预估有个16文件)
pcl-adversarial-defense-master
robustness.py
4KB
pcl_training.py
12KB
utils.py
2KB
Models_PCL
CIFAR10_PCL.pth.tar
15.41MB
proximity.py
1KB
resnet_model.py
5KB
softmax_training.py
7KB
Block_Diag.png
103KB
暂无评论