史蒂芬·霍金:人工智能等技术的发展可能会毁灭人类。这位世界著名的物理学家此前曾警告过人工智能的危险。他认为,人类必须找到一种方法,在造成重大破坏之前快速检测到威胁。 “自文明诞生以来,侵略就一直有用,因为它具有绝对的生存优势,”霍金说。“侵略通过达尔文进化过程根深蒂固在我们的基因中。然而,今天的技术发展已经加速到这样的程度,以至于这种侵略可能以核战争或生物战争的形式摧毁人类。我们需要用逻辑和理性来控制这种情况与生俱来的本能。” 不过,霍金也表示,尽管人类面临各种问题,但仍有生存的希望,这需要我们所有人的共同努力。“我们需要更快地认识到这些威胁,并在它们失控之前采取行动。这可能意味着某种形式的世界政府,”霍金说。 世界政府也可能制造各种问题。“(世界政府)可能会变成暴政,”霍金说。“所有这一切听起来像是人类注定要灭亡,但我是一个乐观主义者。我认为人类将迎接这些挑战。” 在2015年的一次网络问答中,霍金指出人工智能可能会发展到非常强大的程度,甚至可能在无意间彻底毁灭人类。霍金说:“人工智能真正的威胁不在于它们有恶意,而在于它们有能力。”,那我们就有麻烦了。 他继续说道:“你可能不是一个讨厌蚂蚁的人,但你可能会不小心踩到它们,如果你负责一个水电绿色能源项目,这个项目的里面可能也有很多蚂蚁窝被淹没了该地区,这对蚂蚁来说非常不幸。我们要防止人类陷入这些蚂蚁的境地。” 特斯拉CEOElonMa斯克也提出了类似的观点,他警告说人工智能的发展必须得到遏制。“随着时间的推移,我认为我们“很可能会看到生物智能和数字智能的更紧密融合,”马斯克说。他还建议,未来人类可能会与机器结合,跟上人工智能的发展步伐。(任田)
