当前位置: 首页 > 科技观察

谷歌前CEO:人工智能就像核武器大国需要建立“人工智能威慑”以确保相互毁灭

时间:2023-03-21 11:40:32 科技观察

谷歌前首席执行官埃里克施密特(EricSc??hmidt)将人工智能核武器比作人工智能,并呼吁建立类似的相互保证毁灭威慑机制,以防止世界上最强大的国家因为人工智能而互相毁灭。MutuallyAssuredDestruction(简称M.A.D.机制,又称互毁原理)是一种“全毁”性质的思想。如果两个对立方之一充分利用它,双方都会被摧毁,这就是所谓的“恐怖平衡”。施密特将人工智能比作核武器,称中美未来可能缔结类似禁止“核试验”的条约,防止人工智能毁灭世界。施密特:我当时非常年轻,天真。7月22日,施密特在阿斯彭安全论坛(AspenSecurityForum)国家安全和人工智能小组会议上谈到了人工智能的危险。在回答有关技术道德价值的问题时,施密特解释说,在谷歌早期,他本人对信息的力量还很天真。然后,他呼吁技术更好地与其服务对象的道德和伦理保持一致,在人工智能和核武器之间进行了奇怪的比较。施密特设想,在不久的将来,中国和美国将需要围绕人工智能签署一些条约。“在20世纪50年代和60年代,我们最终制定了一项关于‘预期’的核试验的规则,并禁止了核试验,”施密特说。“这是一个信任或缺乏平衡的例子,这是一个‘毫无意外’的规则”,他非常担心在美国和中国这两个人工智能大国之间,一些事情会因为一些原因而开始。误会和误会,导致引发危险事件。施密特表示,目前还没有人在做这方面的研究,但人工智能是如此强大。埃里克施密特于2001年至2011年担任谷歌首席执行官,2011年至2015年担任谷歌执行主席,2015年至2017年担任AlphabetInc.执行主席,2017年至2020年担任Alphabet技术顾问。2008年,作为谷歌董事长,施密特为巴拉克奥巴马竞选,后来与埃里克兰德一起成为奥巴马总统技术顾问委员会的成员。从2019年到2021年,施密特与RobertO.Work共同担任国家人工智能安全委员会主席。人工智能真的那么危险吗?人工智能和机器学习是一项令人印象深刻但经常被误解的技术。在大多数情况下,它并不像人们想象的那么聪明。它可以制作杰作级别的艺术品,在《星际争霸2》击败人类,并为用户拨打基本的电话,但试图让它执行更复杂的任务,比如自动驾驶汽车,进展并不顺利。施密特设想了一个不太遥远的未来,在这个未来中,中国和美国都有安全问题,迫使他们就人工智能达成某种威慑条约。他谈到了1950年代和1960年代,当时各个国家通过外交手段对地球上最致命的武器进行了一系列控制。但要让世界达到《禁止核试验条约》(禁止核试验条约)和第二阶段《限制战略武器条约》(SALTII)和其他具有里程碑意义的立法将需要数十年的核爆炸,如广岛和NagaRocky核爆炸。美国在二战末期用核武器摧毁了日本两座城市,造成数万人死亡,向世人证明了核武器永远的恐怖。随后,苏联和中国也成功研制出核武器,从而催生了相互保证毁灭(MAD),这是一种维持“危险平衡”的威慑学说,确保如果一个国家发射核武器,其他国家很可能会做同样的事情。迄今为止,人类一直没有使用这个星球上最具破坏性的武器,因为这样做可能会摧毁全球文明。人工智能有这样的力量吗?现在看来,人工智能还没有证明自己有核武器那么大的破坏力,但很多当权者都对这项新技术心生畏惧,甚至有人建议把核武器的控制权交给人工智能。这些人认为人工智能比人类更适合。作为核武器使用的仲裁者。所以或许人工智能的问题不在于它拥有核武器那样潜在的毁灭世界的威力,而在于人工智能的好坏取决于它的设计者能否体现其创造者的价值观。人工智能存在经典的“垃圾输入,垃圾输出”问题。种族主义算法催生种族主义机器人,人工智能也会产生偏见。DeepMind的首席执行官戴米斯哈萨比斯(DemisHassabis)比施密特更了解这一点。DeepMind已经发展出能够击败《星际争霸2》(星际争霸II)玩家的AI,并且在7月LexFridman播客的采访中,Fridman询问Hassabis他如何能够控制如此强大的技术作为AI,以及Hassabis如何避免被这样的力量腐蚀。哈萨比斯回应:“AI是一个如此伟大的想法,”他说,“重要的是谁创造了[AI],他们来自什么文化,他们有什么价值观,他们是AI系统的建设者。AI系统会自己学习……但系统的文化和它的创造者的价值观将在系统中继续存在。”AI是其创造者的反映,1.2兆吨的爆炸不可能将一座城市夷为平地,除非人类教它这样做。