当前位置: 首页 > 科技赋能

是否可以给AI加一把安全锁?

时间:2024-05-22 12:30:11 科技赋能

我见过刀剑和毒药,我迷恋火药和武器,我总是带着恐惧与别人说话,我每一个场景都看到灾难,每一次钟声响起,我不安地颤抖,但我不讨厌不可抗拒的压迫——Pod Lyle《恶之花》驯服科技猛兽是人类永恒的主题。

所以我们有极其复杂的电力保护系统、交通规则和无数的交通安全设备,以及庞大的互联网安全产业。

我们不会因为闪电的猛烈和触电的危险而决定切断城市的电源。

相反,我们会层层限制它、保护它,让科技安全地服务人类。

今天,这个逻辑在人工智能面前再次上演。

大概就像人类第一次面对火灾时的恐慌一样,一百多年的科幻文化让公众在面对人工智能时首先想到的是机器人统治地球的恐惧。

事实上,这就像一颗行星撞击地球一样。

这种情况确实可能发生,但没有人知道需要多长时间才会发生。

然而,随着人工智能的发展和应用,这项新技术暴露出来的危险和不确定性也逐渐浮出水面。

那么AI的“绝缘胶带”和“空气开关”在哪里?不久前,Deepmind在博客中透露消息,他们准备开发一种“AI保险机制”,在关键时刻给AI“断电”,以应对AI模型可能出现的混乱和失控。

一旦发现AI的恶意倾向,就会主动终止AI的活动。

目前,该领域的研究仍多处于探索方向。

但还有一些问题需要我们探讨:如果有像AI熔断器这样的设备,它在什么情况下会终止AI工作?类似领域还使用哪些其他方法来确保人工智能安全?在AI上加装安全锁的想法有哪些困难甚至不可靠?需要警惕哪些“人工智能之恶”?首先,我们还是要给“AI之恶”坚决打上引号。

就像火的使用,可能是人类历史上最具成本效益的技术使用,但至少今天没有人谈论“火的罪恶”或“普罗米修斯的原罪”。

AI有点不同的是,深度神经网络的复杂性使得AI运行逻辑在某些环境下无法解决,这就是引起广泛关注的AI黑箱问题。

美国小说家霍华德·洛夫克拉夫特坚信,人类最大的恐惧是对未知的恐惧。

深度学习作为当今AI技术的主要实践方式,确实还蒙着太多的面纱。

姚期智院士曾经判断,现在深度学习的很多东西都是不科学的。

破解其神秘面纱已成为人工智能学科的重大课题。

那么,仍然神秘的人工智能在其应用中会带来哪些危险的可能性呢?尽管有关人工智能的负面报道远低于正面报道,但实际上数量不少。

总结起来,我们今天主要需要面对三个危险: 1、从数据到歧视。

人工智能可以学会咒骂和种族歧视。

每个人都必须知道这一点。

最著名的案例是今年3月,微软推出了一款名为Tay的聊天机器人。

然而,上线不到一天,Tay就从一个天真可爱的19岁女孩,变成了满口脏话和种族歧视的“AI疯子”。

”,于是微软紧急下架了这款产品。

这种情况已经出现在很多AI聊天应用和语音助手中。

甚至很多导购、防伪识别等人工智能应用也已经悄然学会了读取人们的订单。

根本问题是人工智能将学会吸收社交网络上的对话数据。

然而,经过一次操作,它就会学到丑陋的东西。

深度学习是基于大数据的,但如果数据中混有不太好的数据,人工智能可能会将这些内容带入行为模式。

但如何判断什么是好内容呢?这个模棱两可的问题至今还没有很好的答案。

2、AI作为武器和非法工具,不仅可以教坏AI,还可以直接利用AI作恶。

这一领域的案例很常见。

英国于2018年开始发现利用人工智能模型模仿用户语气的电子邮件和电信欺诈行为;许多黑客已经展示了利用人工智能窃取密码和破解安全锁的能力;甚至在中国,不少不法分子也开始利用AI识别技术来刷电商账号和订单,支持非法产品的运营。

3、机器直觉不可靠 AI作为一种算法,显然不把人类的常识当作常识,但很多时候,无论是普通人还是科研人员都会忽略这一点。

一个著名的案例是,当Deepmind在划船游戏中训练AI时,它发现深度学习模型最终得出的结论并不是普通人类玩家选择的路线,而是游戏中疯狂的圆圈。

虽然是游戏,但却发人深省。

例如,在无人驾驶场景中,AI可能不会按照人类交通规则思考。

它可能会直接从高架桥上飞下来,或者选择倒车以获得更好的通行权。

效率。

这并非危言耸听。

今天的研究发现,对街道标志进行一些操作可能会干扰计算机视觉。

毕竟,即使机器可以看到,它也不是人类的“视图”。

显然,这些问题在未来的人工智能应用中已经足够复杂和危险。

那么当问题出现的时候,有什么解决的办法呢?检察官、刽子手和道德家:我们用什么来锁定人工智能?人工智能本身失去控制可能会导致安全风险,这可能不同于人类历史上任何技术风险。

它吸收大量的数据并进行复杂的内部转换,因此留给人类的困难在于它没有像汽油或电力那样简单的安全规则,而是难以捉摸和隐藏的错误。

我们经常听到AI开发者谈论这样的情况:模型跑了一次,就OK了,没问题。

但再次运行后,却出现了问题。

不知道问题出在哪里……又运行了两次,好像又好了?显然,在工业这样的关键生产领域,部署如此富有想象力的员工是不合适的。

那么如何给AI加装安全装置呢?我们可以看到当今业界有几种想法。

需要注意的是,这并不是学校之间的明确争论。

真正践行AI安全,需要综合的解决方案协同工作。

1、刽子手的话题又回到了我们开头提到的DeepMind。

他们正在开发的AI安全技术可谓是复杂AI任务背后随时待命的“AI执行者”。

通过开发具有强大功能和自身安全逻辑的AI系统,基于强化学习机制,可以随时监控其他AI模型的工作。

一旦出现任何异常行为,系统将立即跳闸并切断电源。

事实上,“可中断”的理念一直是DeepMind在AI安全领域的核心理念。

去年12月,他们发布了一项名为《安全可中断智能体》的研究成果,展示了如何确保在中断和重启环境下代理的运行效果不会受到破坏。

让AI监控AI,虽然技术非常前沿,仍然存在一些问题,但很可能是未来AI安全锁的主要研究方向,因为面对日益复杂的深度神经网络,其他问题追踪模型可能会被淘汰。

难以消费。

人工费用承担。

不过,这项新技术带来的第一个疑虑显然是“谁来监督监管者”? 2. 无论是歧视还是检察官错误的机器直觉,本质上都可以归因于深度学习的黑箱性质。

那么有没有一种方法能够看穿黑匣子,让人类开发者能够找到有问题的AI的错误点,从而能够纠正它们,而不是鲁莽地打断它们呢?事实上,解决黑匣子是AI安全和应用场景领域的主要努力方向。

今天我们已经可以看到越来越多的黑盒解读工具出现在科学研究甚至工业界。

今天有两种主要的方式来解释黑匣子。

一是用AI来检索AI。

例如,利用注意力机制训练神经网络模型,专门复制和跟踪其他AI模型的运行轨迹,以找出错误训练结果的根源。

,帮助开发者进行修正。

另一个想法是使用一些工具来可视化深度学习模型的结构,这意味着将黑盒子变成玻璃盒子。

因此,当AI出现错误时,开发者可以相对轻松地查询每一层的训练过程来查找问题。

然而,无论是人工智能检察官还是人类检察官,当今的黑盒可解释性技术通常只能应对不太复杂的深度学习模型。

而且,一般需要大量的人类劳动力参与,将人工智能变成“人工智能+智能”,所消耗的人力必须有相当的技术水平。

3.道德主义者无论从哪个方向来看,今天防止人工智能作恶不仅仅是一个技术问题。

比如,训练数据的三观是否足够正确,很大程度上取决于开发者的三观;又比如,开发人工智能武器和人工智能监控工具的欲望能否得到遏制,这应该是一个社会和国际责任的问题;而许多AI歧视问题源于其背后的开发者想要提高业务效率。

这也是一个道德问题。

为了防止这些问题蔓延,人工智能的安全锁显然不应该只是技术锁,还应该引入广泛的社会机制。

今年2月,OpenAI、牛津大学、剑桥大学等14家机构和大学发布了一份名为《人工智能恶意使用》的研究报告。

报告指出,应该认识到当今的人工智能研究成果是一把双刃剑。

为了控制人工智能带来的风险,政策制定者应与技术专家密切合作,调查、预防和减轻人工智能可能的恶意使用。

应优先考虑人工智能领域的规范和伦理框架的形成;讨论这些人工智能挑战时所涵盖的利益相关者和专家的范围应该扩大。

防范人工智能恶意问题,应从技术、法律、伦理、研究习惯等领域进行综合防治。

这已成为国际共识。

但显然这把锁看起来最简单,但实际铸造起来的难度却是难以想象的。

无论是“停电”、重大检查还是社会联合监管,这些人工智能安全锁的背后,隐藏着当今人类在面对人工智能伦理问题时共有的犹豫:人性本质是矛盾的,但我们却想模仿人类。

人工智能有统一的规则。

然而,谁能保证安全锁的清白呢?无论任何AI安全防护措施,归根结底都是一句话:希望AI能够辨别善恶,以善制恶。

这说起来容易做起来难吗?当人工智能需要人类社会产生的训练数据越来越多时,人类的各种价值判断也体现在其中。

人类社会的一些伦理障碍将不可避免地被卷入人工智能的世界。

例如,我们已经开始探索是否可以让人工智能系统在其他人工智能犯错误时终止它们的行为。

但这涉及到人工智能错误行为的定义边界是什么的问题。

谁来举报不当行为?我们都知道,谷歌AI曾经将黑人识别为猩猩,这显然是一种歧视行为。

但如果人工智能判断在某个治安较差的街区应该加强警力部署,这是否也是一种歧视并应该终止呢?这个问题确实在洛杉矶警察局使用的系统中得到了体现,并在加州引发了激烈的争论。

此外,各国的人工智能规则是否应该保持一致?如今,越来越多的人工智能企业、国际行业组织甚至政府组织开始呼吁关注人工智能的伦理道德问题,制定国际统一的人工智能伦理。

但统一的人工智能规范是否会侵犯某些国家的风俗习惯呢?是否会阻碍一些国家和地区的人工智能研究?比如,欧盟的AI研究隐私保护政策真的适合全世界吗?这些近乎悖论的AI伦理问题,是所有AI安全锁技术和产业行为面临的最深的敌人。

即使展望更长远的未来,人类的行为判断真的比人工智能更好吗?在某种程度上,使用技术来中断不可预测的机器学习行为是否真的暴露了人类的无知?或者终结利用技术创造技术的新可能性?好吧,今天这些问题都没有真正的答案。

这也意味着,在今天给AI加上严格的安全锁仍然是一项不可能完成的任务。

然而,破解人工智能黑匣子性质和人工智能自我监督的技术进步确实正在快速提高人工智能应用的安全指数。

如今媒体上流传的许多人工智能安全问题应该能够很快得到解决。

问题和解决方案总是在来回的状态中向前运行。

最后,我们以“科幻”来结束这个话题。