在视觉方面,AI与人类的差距到底有多远?加州大学伯克利分校等大学的研究人员创建了一个包含7,500个“自然对抗样本”的数据集,在测试了许多机器视觉系统后,他们发现它们的准确率下降了90%!在某些情况下,该软件只能识别2%-3%的图像。如果这样的AI用在自动驾驶汽车上,后果不堪设想!计算机视觉近年来有了很大的改进,但仍然有可能犯下严重的错误。错误如此之多,以至于有一个研究领域致力于研究AI经常错误识别的图片,称为“对抗图像”。把它们想象成计算机视觉错觉,人工智能看到一只松鼠,而你看到树上的一只猫。AI有必要通过将爬树猫误认为是松鼠来研究这些图像。当我们将机器视觉系统置于人工智能安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机会像我们一样看待世界。对抗性图像证明并非如此。对抗性图像利用机器学习系统的弱点虽然该领域的大部分焦点都集中在专门设计用来愚弄AI的图像上(例如谷歌的算法将3D打印的乌龟误认为是枪),但这些具有欺骗性的图像也会自然出现。这样的图像更加令人担忧,因为它们表明视觉系统会出错,即使我们不是故意的。为了证明这一点,来自加州大学伯克利分校、华盛顿大学和芝加哥大学的一组研究人员创建了一个包含7,500个“自然对抗实例”的数据集,他们在这些数据集上测试了许多机器视觉系统,发现它们的准确率下降了90%,在某些情况下,该软件只能识别2%-3%的图像。下面是一些“自然对抗实例”数据集的例子:AI看到的是“残骸”,其实是一只在枯叶上爬行的虫子。AI看到“火炬”AI看到“瓢虫”AI看到“日晷”“棒球运动员”这些数据有望帮助培养更强大的视觉系统研究人员在论文中表示,这些数据有望帮助培养更强大的视觉系统。他们解释说,这些图像利用了源于软件“过度依赖颜色、纹理和背景线索”的“深层缺陷”来识别它所看到的东西。例如,在下图中,AI将左边的图像误认为是钉子,可能是因为图像的木纹背景。在右图中,他们只注意到蜂鸟喂食器,却忽略了没有真正的蜂鸟存在的事实。在下面四张蜻蜓的照片中,AI会在分析颜色和质地后,从左到右将它们识别为臭鼬、香蕉、海狮和手套。我们可以在每张图片中看到AI为什么会出错。人工智能系统犯这些错误并不是新闻。多年来,研究人员一直警告说,使用深度学习创建的视觉系统是“肤浅的”和“脆弱的”,并且在理解世界上一些相同的细微差别时不会像人类那样灵活。这些AI系统在数以千计的示例图像上进行了训练,但我们常常不知道AI正在使用图片中的哪些确切元素来做出判断。一些研究表明,算法不是从整体上看图像,而是关注特定的纹理和细节,同时考虑整体形状和内容。该数据集中呈现的结果似乎支持这种解释,例如在明亮表面上显示清晰阴影的图片会被误认为是日晷。AI视觉系统真的无望了吗?但这是否意味着这些机器视觉系统就无救了?完全没有。通常,这些系统犯的错误很小,例如将排水盖错误地识别为检修孔或将货车误认为是豪华轿车。虽然研究人员说这些“自然对抗的例子”可以欺骗各种各样的视觉系统,但这并不意味着它们可以欺骗所有系统。许多机器视觉系统都是高度专业化的,例如用于识别医学扫描图像中的疾病的系统。虽然这些系统各有缺点,可能不了解这个世界,不了解人类,但这并不影响它们对癌症的检测和诊断。机器视觉系统有时可能快速而肮脏,但它们通常会提供结果。这样的研究暴露了机器成像研究的盲点和空白,我们接下来的任务就是如何填补这些盲点。论文地址:https://arxiv.org/pdf/1907.07174.pdf代码和数据集:https://github.com/hendrycks/natural-adv-examples
