北京时间2月23日凌晨消息,一份由26位专家联合撰写的报告对人工智能技术的潜在威胁发出警告。他们认为,这项技术可能会在未来五到十年内引发新型网络犯罪、物理攻击和政治颠覆。 这份100页的报告标题为《人工智能的恶意用途:预测、预防和缓解》(人工智能的恶意使用:预测、预防和缓解),由来自牛津大学、剑桥大学等14个不同机构和组织的专家撰写以及埃隆·马斯克的 OpenAI 等等。 在其中,作者详细阐述了人工智能在未来几年可能会做哪些人们普遍反对的事情。
由于人工智能在很多方面的能力远超人类,报告认为,这项技术现在将帮助敌对国家、犯罪分子和恐怖分子进行精准高效的攻击,不仅扩大了范围,而且提高了效率。 报告写道:“随着人工智能变得更加强大和普遍,我们预计人工智能系统的广泛使用将导致现有威胁的扩大、新威胁的出现,甚至典型威胁特征的变化。
他们还警告说,由于人工智能可以扩展并减轻人类的负担,因此攻击成本也将显着降低。同样,新的攻击很可能会出现,因为此类系统可以用来完成人类通常难以完成的任务 具体而言,报告认为,与自动化攻击、网络钓鱼、语音合成和数据中毒相关的网络攻击将会增加,无人机以及完全和半自动驾驶系统的出现也将带来新的风险,包括蓄意碰撞多辆自动驾驶汽车,使用数千架无人机进行协同攻击,并将商用无人机变成面部识别刺客,控制关键基础设施以获取赎金。在政治上,人工智能还可以用来左右舆论,形成高度精准的宣传,传播虚假但可信的文章和视频。人工智能还可以在私人和公共空间带来更好的监控技术。
为了减轻这些威胁,报告提出了5点建议: -人工智能和机器学习研究人员应该承认他们的研究成果是双刃剑。 -政策制定者应与技术专家密切合作,调查、预防和减轻人工智能可能的恶意使用。 - 一些方法应该借鉴计算机安全等其他高风险技术领域,并应用到人工智能领域。 - 应优先在这些领域建立规范和道德框架。
- 讨论这些挑战时涉及的利益相关者和专家的范围应该扩大。 此外,报告作者还认为应该“重新思考”网络安全,并对制度和技术解决方案进行投资。
他们还表示,开发人员应该培养一种“责任文化”,并考虑数据共享和开放的力量。 然而,有些人认为该报告的作者夸大了我们面临的威胁。
网络安全公司 High-Tech Bridge 首席执行官伊利亚·科洛琴科 (Ilia Kolochenko) 认为,强人工智能和我们所说的日常人工智能之间应该有明显的区别。前者确实可以替代人脑。他表示,犯罪分子使用简单的机器学习算法来使攻击更加有效,但由于底层安全性不足和组织内部的疏忽,这些措施取得了成功。机器学习只起到“辅助加速器”的作用。
他还补充说,人工智能还可以用来更有效地对抗网络攻击。此外,人工智能技术的发展往往需要长期、高额的投入,而“黑帽黑客”通常无法承受。
因此,他并不认为数字领域会面临实质性的风险和革命——至少5年内不会。