当前位置: 首页 > 科技观察

人类会因为人工智能而灭亡吗?霍金的期末论文或许能找到一些线索

时间:2023-03-14 16:56:14 科技观察

“人工智能的完全发展可能意味着人类的终结……它将自行发展并继续以增长的速度重新设计自己。”世界著名物理学家史蒂芬霍金在接受采访时表示,人类受限于生物进化缓慢,将无法竞争和被取代。霍金(1942年1月至2018年3月),虽然他的职业是理论物理学家和宇宙学家,但他经常就全球变暖、政治和哲学等许多问题发表自己的观点。但他过去的大多数有争议的言论都是关于技术对人类未来的威胁。人工智能对人类的威胁曾经是他的警告之一。霍金最后一篇论文于今年10月16日发表,是与家人和同事合作完成的。在他的最后一篇文章中,霍金谈到了他认为技术可能给人类带来的风险,以及其他问题。霍金预言背后的真相霍金是无数理论天体物理学家和宇宙学家的灵感来源,他时刻警示我们人工智能的威胁。在他的最后一本书《对大问题的简明回答》(Hodder&Stoughton,2018年)中,他涵盖了从人工智能到外星人的所有内容。《超人》但他谈到的最重要的事情之一就是超人取代了普通人。超人,他的意思是“基因重新设计”的人类。他谈到了未来人类的基因编辑和彻底摧毁现在的人类。我们已经有了CHRISPR-Cas9来改变我们基因的水平。他认为人们会想出一种方法来修改像智力和攻击这样困难的东西,利用基因工程的奇迹,而且用不了多久就能实现。还能增强抗病能力,延年益寿。我们还进行了一项研究,表明通过基因改造胚胎治疗心脏病的可能性。基因工程的这些进步让霍金对人类的未来感到担忧,他认为人类最终会成为对普通人类世界的威胁。他写道:“一旦出现这样的超人,就会出现人类未进步的重大政治问题,他们将无法竞争。据推测,他们会死去,或者变得不重要。取而代之的是一群自我设计的有机体正在以越来越快的速度进步。“人工智能引发的自然灾害?他的论文还说,人工智能有可能在未来建立自己的意志,这将与我们人类的完整性发生冲突,在未来1000年内,一场重大的环境灾难或核战争将“削弱地球”。今天许多计算机科学家相信意识会从人工智能中产生。超级智能过去,谷歌在其名为AutoML的项目中创建了一个AI系统,该系统创建了自己的子AI,其性能优于其创建者。它需要人工智能来理解它是如何工作的,因为这是一种可能性,我们可以很好地关注未来人工智能意识的到来。霍金专注于超人人工智能的出现,它不仅能够映射人类智能,而且能够扩展它。他说,这项技术将超越人类,使他们不仅能做人类能做的事,还能学习和成长,最终在能力上超越人类。他在书中说,人工智能将在未来100年超越人类智能。但人类需要确保AI必须与我们有相同的目标。在电影《我,机器人》(我,机器人)中,描绘了一个留给机器人的未来世界。这部电影对人工智能接管世界以及它如何奴役人类持负面看法。其他警告过我们有关AI的企业家ElonMusk也将AI视为对人类的威胁,并与霍金一起签署了一封公开信,希望阻止机器人的崛起。据滚石杂志报道,在向他的神经技术公司Neuralink的员工展示了一部关于人工智能的纪录片后,他告诉他们,“[使AI安全]的可能性可能为5%到10%”。万维网的发明者蒂姆·伯纳斯-李在一次会议上谈到了一个可怕的场景,即人工智能可以通过创建和运营自己的公司成为新的“宇宙主宰”。一个很好的例子是美国电视节目《Black Mirror》的一集名为《Metalhead》。比尔·盖茨在接受BBC采访时分享了他对人工智能潜在威胁的看法。“几十年后,尽管情报足够强大,令人担忧。我同意埃隆马斯克和其他一些人的观点,但我不明白为什么有些人不关心它,”他说。人工智能的未来我们人类在整个历史上创造的任何技术都产生了好的或坏的影响。是威胁还是帮助取决于我们。但人工智能的世界完全是另一个世界。霍金提出的威胁是真实存在的,作为一个文明,我们需要特别小心,不要让它发展到我们自己无法再控制的地步。