AI的致命弱点揭秘:一张小贴片如何迷惑深度学习模型?
本帖最后由 不二如是 于 2024-5-5 18:07 编辑在线学习:
https://www.bilibili.com/video/BV1gZ421E7QC
在对抗样本攻击中,攻击者总是希望尽可能减少扰动程度,以避免被发现,但是在对抗补丁攻击中,攻击者不再将自己限制在难以察觉的变化中。
该攻击方案会生成一个与图像无关的补丁,然后可以将此补丁放置在图像中的任何位置,如此便能攻击分类器,让其输出指定的目标类别。
补丁示意图:
**** Hidden Message ***** {:5_94:} {:5_108:}
页:
[1]