对抗样本生成攻击是指针对深度学习模型的一种攻击方式,通过微小的扰动就能够使得模型输出完全错误的结果。本文综述了FGSM、BIM\I-FGSM、PGD、JSMA、C&W和DeepFool六种对抗样本生成攻击方法,并对每种方法的原理、优缺点和适用范围进行了分析和比较。
深度学习中对抗样本生成攻击方法综述
文件列表
对抗样本生成方法综述(FGSM、BIM\I-FGSM、PGD、JSMA、C&W、DeepFool)
(预估有个2000文件)
4546316433_202cc68c55.jpg
234KB
10995953955_089572caf0.jpg
231KB
8717900362_2aa508e9e5.jpg
260KB
10164073235_f29931d91e.jpg
239KB
5674170543_73e3f403fb.jpg
241KB
13472141763_f2517e7f0d.jpg
231KB
5693459303_e61d9a9533.jpg
243KB
3704306975_75b74497d8.jpg
235KB
5799616059_0ffda02e54.jpg
230KB
6140693467_211a135b6d.jpg
233KB
暂无评论