当前位置: 首页 > 科技赋能

脸书科学家!先进的人工智能将比人类更好地管理世界

时间:2024-05-22 15:29:06 科技赋能

当人们谈论未来的人工智能时,会有些恐慌——比如,它可以自学学习,并变得比我们人类能理解的任何东西都更先进。

如果落入坏人之手,甚至是自己的手中,这种先进的算法可能会主宰世界各地的政府和军??队,赋予奥威尔式的监视、操纵和社会控制能力,甚至控制军用无人机等自动驾驶车辆。

整个战场都是杀伤性武器。

但一些人工智能专家认为这些担忧没有根据。

事实上,高度先进的人工智能可能比人类更擅长管理世界。

这些恐惧本身就是真正的危险,因为它们可以阻止我们将这种潜力转化为现实。

Facebook AI 的研究科学家托马斯·米克洛夫 (Thomas Miklov) 周六在布拉格举行的“人类级人工智能”联合会议上表示:“也许无法实现人工智能才是人类面临的危险。

”米科洛夫解释说,作为一个物种,人类非常不善于做出对我们有利的选择。

人们为了获取原材料而破坏雨林和其他生态系统,却不知道或不关心它们如何导致整个地球缓慢且不可逆转的退化。

但先进的人工智能系统也许能够保护人类免受自身短视的影响。

米科洛夫补充道:“我们人类非常不擅长预测某个遥远的时间轴上会发生什么,也许是 20 到 30 年后。

” “也许让人工智能比我们自己更聪明,以某种共生关系可以帮助我们避免未来的灾难。

”当然,在认为高级人工智能实体会是仁慈的方面,米克洛夫可能属于少数派。

在整个会议期间,许多其他发言者表达了这些共同的担忧,主要是担心人工智能被用于危险目的或被恶意人类行为者滥用。

我们不应该嘲笑或贬低这些担忧。

我们不确定是否有可能创造出通用人工智能(通常被认为是复杂人工智能的圣杯),它可以完成人类可以完成的任何认知任务,甚至可能做得更好。

先进人工智能的未来充满希望,但它引发了许多伦理甚至意想不到的问题。

然而,HLAI 会议的大多数与会者一致认为,在我们需要规则之前,我们仍然需要先制定规则。

政府、私营企业和学术界应建立国际协议、道德委员会和监管机构,以降低敌对政府、不知情的研究人员甚至疯狂科学家释放恶意人工智能系统的风险。

或者将先进算法武器化的可能性。

如果发生不好的事情,这些系统会确保我们有办法处理它。

有了这些规则和保障措施,我们将更有可能拥有先进的人工智能系统,它们可以与我们和谐相处,甚至可能拯救我们自己。