当前位置: 首页 > 科技观察

科学家警告说,如果超级智能机器要伤害人类,拔掉插头并不能阻止

时间:2023-03-21 19:29:51 科技观察

“人工智能(AI)叛乱”,但这个概念是新研究的主题。一个国际研究团队设计了一个理论上的“遏制算法”来模拟人工智能,以确保它在任何情况下都不会伤害人类,但事实证明它不能。人工智能多年来一直让人类着迷,我们对一台能够控制汽车、谱写交响乐或在自己的棋局中击败世界上最好的国际象棋棋手的机器感到敬畏。然而,能力越大,责任越大,世界各地的科学家都在关注超级智能系统可能带来的危险。据报道,包括马克斯普朗克人类发展研究所人类与机器中心的科学家在内的国际团队已经证明,控制超级人工智能是不可能的。该团队在他们的分析中使用了AlanTurning在1936年提出的“停止”问题,该问题着重于计算机程序是否会得出结论并通过“暂停”做出反应。据悉,在研究中,该团队设计了一种理论上的“遏制算法”,通过先模拟人工智能的行为,如果认为有害,则停止人工智能的行为,从而确保超级人工智能不能伤害人类。但是仔细分析后发现,这样的算法在目前的计算模式下是无法成立的。也就是说,当前的算法无法阻止AI,因为命令AI不要毁灭世界会无意中阻止“遏制算法”自行运行。人类与机器中心主任IyadRahwan表示,如果发生这种情况,将不知道“遏制算法”是否仍在分析威胁,或者是否已停止遏制有害AI。基于这些计算,无法计算出“遏制问题”,也没有算法可以找到判断人工智能是否会对世界造成危害的解决方案。这些发现还证明,我们甚至可能不知道超级智能机器何时会到来,因为决定一台机器是否表现出优于人类的智能与“遏制问题”属于同一领域。国际科学团队的一篇论文警告说,如果超级智能机器想要接管世界并伤害人类,拔掉插头也无济于事。