数学家约翰·冯·诺伊曼(John von Neumann)和欧文·约翰·古德(Irving John Good)讨论了关于技术奇点的早期观念,那一刻,技术将永远改变我们所知道的人类生活。其他作者(例如Vernor Vinge和Ray Kurzweil)推广了与人工智能(AI)相关的奇异性,这是一种超级智能的创造,这将极大地改变文明并有可能破坏文明。如果有一天实现这种威胁的一天,我们是否能够将AI保留在我们的控制之下?
语言模型,例如Chatgpt或图像发生器,例如Dall-E或Midjourney,它们在用于恶意或非法目的时会增加警钟。学分:Pixsell / Alamy股票
从1940年代和1950年代的暂定起步开始,AI已经成长为现在我们每天在手机,计算机和语音助手中每天使用的无数技术工具的地步。但是,当用于恶意或非法目的时,是语言模型,例如chatgpt或诸如dall-e或midjourney之类的图像发电机,它引起了警钟。但是,专家们不同意何时可能看到所谓的将军或强大的AI,这是能够执行任何任务的超级智能,并且可以带来奇异性。
许多声音警告说,这种未来派系统的风险会导致灾难造成不可估量的比例。2014年,物理学家斯蒂芬·霍金(Stephen Hawking)警告说,英国广播公司(BBC)“可以拼写人类的终结”。当时,科技大亨埃隆·马斯克(Elon Musk)称AI为“我们最大的生存威胁”。次年,两人加入了150多名学者和专家,在生命研究所未来签署了一封公开信,敦促研究“如何在避免潜在的陷阱的同时获得其福利”。
监管的挑战
在当前创建越来越强大的系统的竞赛中,在2023年以及通过同一机构,有27,000多个签署人呼吁暂停至少六个月的训练AI系统,而不是GPT-4强大的AI系统(最新版本)chatgpt。签署人敦促AI实验室和独立专家“使用此停顿来共同开发和实施一套共享安全协议,用于高级AI设计和开发,这些协议受到独立外部专家的严格审核和监督。”他们还呼吁开发商与机构和政府合作以实施安全法规。
许多声音警告说,这种未来派系统的风险会导致灾难造成不可估量的比例。图片来源:盖蒂图像
现在,法规是限制AI危险的大型主力军。意大利封锁了Chatgpt数周的使用,直到公司Openai确保遵守隐私法规。这是当局关注的领域之一,欧洲法律将涵盖AI,这是世界上主要的监管机构的第一项,该机构将定义AI应用中的不同风险。全球人工智能伙伴关系于2020年在G7的倡议中启动,目前有29个成员国,联合国和经合组织等机构正在开发自己的监管框架。
现在,法规是限制人工智能危险的重要主力,因此,诸如《欧洲法律》(AI)或诸如全球人工智能伙伴关系之类的倡议等倡议。信条:约翰·隆德/盖蒂图像
但是,鉴于公司没有意图将刹车踩踏,法规是否足够?在电影《战争游戏》(1983年)中,AI计算机威胁要发射核导弹。编剧解释说,这台机器不仅可以拔掉,因为导弹筒仓会将关闭解释为诺拉德的破坏,并且应该通过发射来做出响应。在最近的小说中,例如《终结者传奇》的最新部分,问题已经更新:这不是一台机器,而是全部 - 网络。我们可能有法律,但是系统会遵守它们吗?是否可以灌输他们的编程以艾萨克·阿西莫夫(Isaac Asimov)著名的机器人法则,根据该法则,机器人永远不会伤害人类?科幻小说来到现实世界,尚未写这个脚本。
哈维尔·亚纳斯(Javier Yanes)
@yanes68