实用黑箱攻击的无数据对抗扰动PDF论文,发表于2020-03-03 神经网络容易受到对抗性示例的攻击,这些示例是为欺骗预先训练的模型而设计的恶意输入。对抗性示例经常表现出黑匣子攻击的可转移性,这使得为一个模型设计的对抗性示例可以欺骗另一种模型。