更新时间:2021-10-14 09:02:22
大家好,我是本栏目的编辑郝帅。现在我给大家解释一下上面的问题。近年来,计算机视觉有了很大的提高,但仍然会造成严重的错误。因此,有一个完整的研究领域致力于研究经常被人工智能错误识别的图像,称为“对抗性图像”。把它们想象成计算机的视觉错觉。当你在树上看到一只猫,AI会看到一只松鼠。
研究这些图像是非常必要的。当我们将机器视觉系统置于AI安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机看待世界的方式与我们相同。敌对的图像证明他们没有。
对抗性图像利用了机器学习系统的弱点。
不过,虽然这一领域的很多注意力都集中在专门设计用来忽悠AI的图片上(就像谷歌的算法对于枪的3D打印龟是错误的一样),但这些混乱的视觉效果自然会出现。如果是这样,这种图像更令人担忧,因为它表明视觉系统会产生非受迫性误差。
为了证明这一点,来自加州大学伯克利分校、华盛顿大学和芝加哥大学的一组研究人员创建了一个由大约7500个“自然对立例子”组成的数据集。根据这些数据,他们测试了许多机器视觉系统,发现它们的准确率下降了90%,软件在某些情况下只能识别2%或3%的图像。
树叶上的虫子被误认为是“海难”。
在一篇附带的论文中,研究人员说,这些数据有望帮助培养一个更强大的视觉系统。他们解释说,这些图像利用了“深层缺陷”,这是由于软件“过度依赖颜色、纹理和背景线索”来识别它所看到的。
比如下图,AI误把左边的图片当成钉子,可能是因为木质背景。在右边的图片中,它们聚焦在蜂鸟喂食器上,却忽略了没有真正的蜂鸟这一事实。
在下面四张蜻蜓的图片中,AI的颜色和纹理都是彩色的,从左到右依次是臭鼬、香蕉、海狮和手套。在每一种情况下,你都可以看到为什么你会犯错误,但这并没有让它变得不那么明显。
AI系统犯这些错误并不是什么新闻。多年来,研究人员一直警告说,深度学习(一种机器学习的风格,是人工智能最近许多进步的原因)创建的视觉系统是“肤浅的”和“脆弱的”——这意味着他们不理解一个与人有相同细微差别的世界的灵活性。
这些系统已经在数千个样本图像上进行了训练,以便了解事物的外观,但我们通常不知道图像AI中的哪些确切元素用于做出判断。
一些研究表明,考虑到整体形状和内容,该算法不会将图像视为一个整体,而是专注于特定的纹理和细节。该数据集提供的结果似乎支持这一解释。例如,在明亮的表面上显示清晰阴影的图片被错误地识别为白天.人工智能基本上缺少树。
但这是否意味着这些机器视觉系统无法恢复?一点也不。通常,所犯的错误都是微不足道的,例如将下水道盖识别为人孔,或将卡车误认为豪华轿车。
虽然研究人员说这些“自然对抗的例子”会愚弄各种视觉系统,但这并不意味着它们会欺骗所有人。许多机器视觉系统非常专业化,例如那些用于在医学扫描中识别疾病的系统。虽然他们有自己的缺点,但他们无法理解世界和人类,并不能阻止他们发现癌症。
机器视觉有时可能又快又脏,但它通常会产生结果。像这样的研究向我们展示了我们接下来需要填补的盲点。