对抗样本生成攻击是指针对深度学习模型的一种攻击方式,通过微小的扰动就能够使得模型输出完全错误的结果。本文综述了FGSM、BIM\I-FGSM、PGD、JSMA、C&W和DeepFool六种对抗样本生成攻击方法,并对每种方法的原理、优缺点和适用范围进行了分析和比较。