人工智能(AI)系统的脆弱性一直为业内人士所诟病,稍有数据错误就会导致系统故障。例如,在图像识别中,图片中微小的像素变化不会干扰人的视觉,但机器可能会混淆。正如CVPR2017论文中所讨论的那样,“修改一个像素可以让神经网络识别出图像是错误的。”至于原因,研究人员做了很多研究:数据不够好,算法设计不够精妙……近日,在科技媒体Wired上,计算机科学家ErikJ.Larson写道,优化思维是根源人工智能漏洞。(译者注:这里的优化思维也可以翻译为“追求足够好”,追求完美的AI)崇高的理想:优化。”优化是AI尽可能准确的驱动力。这种推动无疑是好的,但在AI运行的现实世界中,每一个好处都是有代价的。例如,需要更多的数据来提高机器学习计算的准确性,需要更好的数据来保证计算的真实性。“这个更好”必须保证不断的数据收集,所以当AI开始逐渐形成一个完整的图景时,新数据的出现可能会改变现有的情况,导致系统崩溃。这也是为什么在大众眼中近乎完美的AI却时常出现“精神病”的原因之一:它把狗当成菠萝,把无辜的人当成通缉犯。1.优化的脆弱性人类不是优化者,大脑本身在过去数万年中并没有进化出完美优化的功能。大脑是轻量级的,从不追求100%的准确性,能够从小数据中得出假设。换句话说,大脑满足于在“阈值”上混日子,如果1%的准确度足以让它生存下来,那么这就是大脑需要的准确度。但这种最低限度的生存策略也会导致认知偏差,使人思想封闭、鲁莽、宿命论和惊慌失措。AI严谨的数据驱动训练方式可以有效避免这种认知偏差,但也使其陷入“矫枉过正”。事实上,对于人类而言,良好的心态可以抵御完美主义的破坏性影响,而不那么神经质的大脑帮助我们在“生活的颠簸和摇摆”中茁壮成长。将这种“反脆弱性”引入AI也意味着:与其追求压缩越来越大的数据堆,不如着眼于提高AI对不良信息、用户差异和环境动荡的容忍度。这种人工智能将消耗更少的能量,犯更少的随机错误,并产生更少的负担。怎么做?目前,有以下三种方式。2.构建人工智能以面对不确定性五百年前,实用主义大师妮可·马基雅维利(NicoleMachiavelli)指出,世俗的成功需要一种反直觉的勇气。对于聪明人来说,大部分不存在的知识将是不必要的;生活往往不会辜负我们的期望。因此,人类可以改变他们处理歧义的方式。例如,当AI遇到suit这个词时,它会分析更多的信息来判断这个词是指服装还是法律名词。分析更多的信息通常意味着用大数据来缩小答案范围,99.9%的情况下是有效的,剩下的0.1%,AI依然会“自信”地将西装表示为法律名词,但实际上是衣服。因此,人工智能应该有足够大的答案范围。当研究人员设计AI时,他们应该允许“歧义”并将歧义选项代入后续任务,就像人类可以阅读一首诗的多种潜在含义一样。如果下游任务不允许“歧义”存在,那么设计出来的AI应该可以向人类求助,让人类代替它做决定。3、以数据为灵感来源目前的AI希望通过大数据的发散思维来实现创造。但大量科学研究表明,生物创造力通常涉及无数据和不合逻辑的过程。因此,依托大数据或许可以批量创作出很多“新”作品,但这些作品仅限于历史数据的混合搭配。也就是说,大规模发散思维的产生必然伴随着低质量。在GPT-3和Artbreeder等文本和图像生成器中可以看到数据驱动创作造成的局限性。通过“观察”历史场景,再加入专家意见,试图制作出下一个梵高。但往往事实证明,这本《梵高》只能重现前人画家的作品。这种AI设计文化显然误解了创新的含义。这种情况从大家对FaceNet的口碑就可以看出来,因为人脸识别有一些创新还是蛮力优化的。它可以比作调整汽车的扭矩带以提高汽车的性能,并称其为汽车运输的革命。因此,是时候将数据视为灵感来源,而不是伪造数据了。90年前,《科学发现的逻辑》的作者卡尔·波普尔指出,用事实推翻想法比证明想法更符合逻辑。将这种思维引入AI产品中,我们可以将数据的功能从小创意的大量生成器转变为任何事物的大规模破坏者,当然,一些前所未有的创意除外。(译者注:这里的massdestroyer指的是筛选掉“重复作品”)所以与其无休止地产生“重复作品”,还不如让计算机搜索有价值的作品,去寻找未被欣赏的“梵蒂冈”。高”。4.人机融合将人脑融入AI听起来很科幻,短期内很难有大的进展,但我们可以另辟蹊径,设计友好的人机关系。目前人与机器的伙伴关系并没有发挥应有的作用,人类要么充当机器的保姆,要么充当AI系统更新的附属品。前者意味着枯燥乏味,后者意味着被动。如何解决?目前的工作重点集中在三个方面:1、关键问题的研究,让AI在缺乏训练数据时具备“知道”的能力,换言之,追求正确的AI不如追求正确的AI让AI知道什么时候错了,并赋予AI识别自己的智慧。人脑没有计算机的数据处理速度,所以当无知的算法认为自己无所不能时,人类永远都来不及了干预。因此,“傻瓜”应该是程序医学发现自己是“傻瓜”。2.完善人机交互界面。追求优化导致的设计不透明,即黑盒算法。交互设计要消除黑盒性质,比如用包含概率的选项代替死板的按钮(只有一个选项),表示第一个选项有70%的概率,第二个选项有20%的概率,第三个选项概率为70%。选择的概率为5%,依此类推。如果没有令人满意的选项,则需要人工智能重定向,或者进行人工操作,以最大限度地发挥计算机逻辑和人的主动性。3.创建模仿大脑的去中心化人工智能模型。大脑包含分散的认知机制,如逻辑、叙事和情感,它们相互制约和平衡。因此,AI系统也可以设计成包含不同的推理架构,例如,如果深度学习无法访问它需要的数据,系统可以过渡到if-then控制程序。更重要的是,人工智能可以向外看并从人类学线索中学习,而不是狂热地专注于自己的内部优化策略。上述技术建议不是对未来虚无缥缈的想象,而是现在可以实现的设计创新。研究人员需要放弃大数据和完美智能的假设。在这个瞬息万变的世界里,创造力比最准确的要求更需要智慧。
