设为首页 - 加入收藏 华夏门户网 (http://www.iiona.com)- 国内知名站长资讯网站,提供最新最全的站长资讯,创业经验,网站建设等!
热搜: 读心 防长 军事 打击
当前位置: 主页 > 建站 > 正文

我拿着一张贴纸就在AI面前隐身了,人工智能爆出最可笑bug

发布时间:2019-04-25 23:23 所属栏目:[建站] 来源:新智元
导读:最新研究发现,只要一张打印出来的贴纸,就能欺骗AI系统,让最先进的检测系统也无法看到眼前活生生的人。该研究也可能用于现实的视频监控系统,引起热议。 一张贴纸让你在AI面前隐身。 来自比利时鲁汶大学 (KU Leuven) 几位研究人员最近的研究发现,借助一

最新研究发现,只要一张打印出来的贴纸,就能“欺骗”AI系统,让最先进的检测系统也无法看到眼前活生生的人。该研究也可能用于现实的视频监控系统,引起热议。

一张贴纸让你在AI面前”隐身“。

来自比利时鲁汶大学 (KU Leuven) 几位研究人员最近的研究发现,借助一张简单打印出来的图案,就可以完美避开 AI 视频监控系统。

研究人员表示,他们设计的图像可以将整个人隐藏起来,不会让计算机视觉系统发现。这项研究在YOLO (v2) 的开源对象识别系统上进行了演示。

我拿着一张贴纸就在AI面前隐身了,人工智能爆出最可笑bug

如上图所示,AI 系统成功检测到左边的人,而右边的人被忽略了。右边的人身上挂着一块彩色纸板,在论文中被称为 “对抗性补丁”(adversarial patch),正是这块补丁 “欺骗” 了 AI 系统,让系统无法发现画面中还有一个人。

这种欺骗利用了一种称为对抗性机器学习的方法。大多数计算机视觉系统依赖训练 (卷积) 神经网络来识别不同的东西,方法是给它提供大量样本,调整它的参数,直到它能正确地分类对象。通过将样本输入一个训练好的深度神经网络并监控输出,可以推断出哪些类型的图像让系统感到困惑。

他们发表了题为 Fooling automated surveillance cameras: adversarial patches to attack person detection 的论文,并公布了用于生成图像补丁的源代码。

地址:https://gitlab.com/EAVISE/adversarial-yolo

生成的补丁 (patch)能够成功地将人在检测器视线中隐藏起来。例如,这种攻击可能被恶意地用来绕过监视系统,入侵者只要将一小块硬纸板放在身体前面,面向监视摄像头,就能不被监视系统发现。

研究结果显示,这个系统能够显著降低人体检测器的精度。该方法在真实场景中也能很好地发挥作用。

如下面的 demo 所示,使用 YOLOv2 检测拍摄的录像,画面中人、椅子、桌子等都被准确地检测出来,但只要拿上这块 “补丁”,系统就无法检测到人。

生成“神奇补丁”,秒变隐形人

他们是如何生成这块神奇的 “对抗性补丁” 的呢?

优化目标包括以下三个部分:

Lnps:非可打印性得分,这个因子表示贴纸中的颜色在多大程度上可由普通打印机打印出来。有下式:

其中 ppatch 是贴纸中的一个像素,而 cprint 是一组可打印颜色 C 中的颜色。这种损失有利于确保图像中的颜色与可打印颜色集中的颜色密切相关。

Ltv:图像总变化。该损失函数损失确保优化器支持平滑颜色过渡的图像并防止图像噪声。可以由 P 计算 Ltv:

如果相邻像素相似则得分较低,如果相邻像素不同则得分较高。

Lobj:图像中的最大对象分数。补丁的目标是隐藏图像中的人。所以训练的目标是对探测器输出的目标或类别分数实现最小化。将这三个部分相加得到总损失函数:

采用由经验确定的因子 α 和 β 对三个部分进行按比例缩放,然后求和,并使用 Adam 算法进行优化。优化器的目标是总损失 L 的最小化。在优化过程中冻结网络中的所有权重,并仅更改 patch 中的值。在过程开始时,以随机值对 patch 进行初始化。

我拿着一张贴纸就在AI面前隐身了,人工智能爆出最可笑bug
图 3 所示为目标损失的计算,遵循相同的程序来计算类概率

YOLOv2 对象检测器输出一个单元网格,每个单元格包含一系列锚点(默认值为五个)。每个锚点包含边界框的位置、对象概率和类别得分。为了让探测器忽略图像中的人,研究人员尝试了三种不同的方法:最小化类人的分类概率(图 4d),最小化对象得分(图 4c),或两者的组合(图 4b 和 4a)。

研究人员分别尝试了每一种方法。最小化类分数倾向于将类中的人员移至不同的类。在使用 MS COCO 数据集训练的 YOLO 探测器的实验中,研究人员发现生成的贴纸会作为 COCO 数据集中的另一个类被检测到。图 4a 和 4b 分别为采用类和对象概率的实例。

研究人员提出的最小化对象性得分的另一种方法则不存在这个问题。虽然在优化过程中仅仅将其其置于 “人” 这一类别之上,但是生成的贴纸对于某个类的特定性低于其他方法,如图 4c 所示。

研究团队对各种类型的 patch 进行了实验,比如随机生成的图像噪声或者模糊化的图像,最后,他们发现经过多次图像处理的随机物体的照片的效果最好。

例如,他们提出的图像补丁 (图 4c) 是通过随机选取一幅图像来创建的,图像经过了旋转,随机放大和缩小,随机添加随机噪声,随机修改正确率和对比度。

实验结果:显著降低警报,安全摄像头还安全吗?

通过实验结果评估 patch 的有效性。过程与训练过程相同(包括随机变换),将结果应用于 Inria 测试集上来进行评估。

换句话说,研究人员提出一个问题:监控系统产生的警报,有多少可以通过使用贴纸来规避

上表所示为使用不同贴纸的警报触发分析结果。可以清楚地看到,贴纸(OBJ-CLS,OBJ 和 CLS)显著降低了警报数量。

【免责声明】本站内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。

网友评论
推荐文章