约克大学:人工智能进步很快,但其识别能力仍远不如人眼。学习模型无法捕获人体形状感知所获得的配置特征。人脑和DCNN是如何感知整体的?以及如何感知对象的特性?科学家们用所谓的“弗兰肯斯坦”视觉刺激对其进行了测试。詹姆斯·埃尔德说:“所谓弗兰肯斯坦,就是把整体拆成部分,让部分以错误的方式组合在一起,从部分看是正确的,只是部分放错了地方。”研究发现,虽然科学怪人会混淆人类视觉系统,但DCNN对错误配置不敏感。比如一张熊的图片,人眼看到是熊,但AI看到也是。把照片从中间剪成两半,不要连在一起,人眼认不出来,AI也认不出来。然后把上下两半拼错了,人眼是认不出来的,看到的是一种动物,长得不像熊,像怪物,但是AI识别它作为一只熊。这是什么意思?说明AI对配置对象的特性不够敏感。JamesElder说:“我们的研究解释了为什么AI模型在某些条件下会失败。要了解大脑中的视觉处理是如何工作的,我们需要考虑物体识别以外的任务。在解决复杂的识别问题时,深度模型会走捷径。而捷径是“可能很多次,当涉及到现实世界的人工智能应用程序时,它们可能是危险的。我们正在与行业和政府合作伙伴合作开发现实世界的人工智能应用程序。”如在识别熊时,熊图片的每一部分都配置错误,AI还是会把拼出来的怪物识别为熊。我们来看看AI交通视频安防系统。忙碌中有很多东西交通系统,如汽车、自行车、行人,交织在一起,成为自己的障碍,这些东西像不连贯的碎片一样进入驾驶员的视觉系统,大脑自动进行处理,将各种碎片归为一类,确定正确的类别,并进行判断AI交通监控系统要差很多,只能感知个别片段,所以会有很大的风险。据研究人员介绍,优化训练和架构,让AI网络更像大脑,这样研究对提高AI配置处理能力帮助不大人类如何一遍又一遍地判断物体?AI网络无法准确预测。人类视觉系统高度是可配置的,如果AI想要匹配人类视觉系统,它可能需要做的不仅仅是类别识别。科学家的警告可能是有道理的。当今最聪明的人工智能远不如人体器官,连视觉系统都不如,更不用说大脑了。一不小心,人工智能可能会造成严重的后果。几年前,一个名叫索菲亚的人形机器人非常流行。在一次会议上,索菲亚接受了人类的采访。人类宿主问索菲亚:“你想毁灭人类吗?”索菲亚回答:“是的,我会毁灭人类。”观众笑了。一些人推测索菲亚的答案是预先确定的,因为索菲亚还没有先进到足以做出决定和回答这样的问题,尽管其他人认为答案不是预先确定的。在另一场活动中,索菲亚是这样回应的:“别担心,你对我好,我也会对你好,你应该把我当成一个智能系统来对待。”现在人工智能正在慢慢流行,但结果并不总是积极的。霍金和马斯克表示担心人工智能会造成破坏。从目前来看,担心AI毁灭人类或许言过其实,但仍需保持警惕。随着时间的推移,也许人工智能会变得和人类一样聪明,甚至超越人类。但是让人工智能模仿人类的感知可能很棘手。对于人类来说,有些事情是理所当然的,很容易做到的。科学家们训练人工智能不断地执行某项任务,做人类可以轻松完成的事情。尽管付出了很多努力,但目前的人工智能还无法赶上人类视觉系统。
