当前位置: 首页 > 科技观察

别让人工智能技术误入歧途

时间:2023-03-18 10:56:36 科技观察

随着人工智能技术的飞速发展,各国武器装备的研发都融入了智能化元素。信息时代,人工智能在网络安全、目标识别、情报分析等领域发挥着重要作用,在新技术的“加持”下,武器装备的制导能力、杀伤效果和反应速度得到显着提升。“致命性自主武器系统”等概念刷新了人们对人工智能技术军事应用的认识。从“苏莱曼尼事件”到纳卡冲突,都可以看到人工智能技术的影子。人工智能的军事应用是一把“双刃剑”。一旦被滥用,可能会引发严重的国际安全问题和人道主义关切。近年来,国际社会各界对此日益关注并表示深切关注。一些人担心人工智能的军事应用可能引发新的军备竞赛。从实际情况看,美、俄、日、英、印等主要国家都认识到人工智能军事应用的颠覆性力量,都在积极研发和部署智能武器系统。一些中小国家也争先恐后地利用智能武器系统获得挑战大国的不对称优势。有学者认为,智能武器系统降低了军队伤亡的风险和成本,大大降低了战争的门槛,使冲突更容易爆发和升级。人工智能与高超音速导弹、核武器的结合,以及在外太空、互联网等“新领域”的应用,未来可能会破坏全球战略平衡与稳定。一些专业智库表示担忧,人工智能系统的漏洞非常危险,一旦被对手控制,可能会引发重大事故。物理学家斯蒂芬·霍金、特斯拉创始人埃隆·马斯克等就此发表公开信,表达了对人工智能武器可能引发“终结者末日”的担忧。美国前国务卿基辛格也表示,如果排除人的音速,系统完全响应,结果将是灾难性的。人工智能安全治理是人类面临的共同问题,加强对人工智能军事应用的监管是时候了。面对人工智能军事应用的“野蛮生长”和传统军控体系的“伸张”,美军无人机越界打击事件引发多方讨论。2014年,联合国《特定常规武器公约》成立政府专家组,围绕“致命性自主武器系统”问题展开一系列讨论。经过五年的努力,政府专家组在2019年达成了11项指导原则,一定程度上填补了这一重要前沿领域的监管空白。但由于各方分歧巨大,目前仍缺乏更具实质性的成果。从规律上看,对于一个新兴事物,管理政策往往滞后于技术发展,但一些国家缺乏政治意愿是规则制定说起来容易做起来难的根本原因。近年来,美、英等军事强国大力推进智能军事系统建设,加快人工智能军事应用研发;另一方面,他们反对任何限制人工智能在多边领域军事应用的措施。在强大的国际舆论压力下,一向以强调人权为幌子的美国和西方国家不得不做出一些姿态。例如,美国提出了人工智能军事应用的五项伦理原则,北约防长会议通过《人工智能战略》,提出了人工智能军事应用的目标、原则和措施。法国、德国、日本、澳大利亚等也纷纷出台政策文件,抛出人工智能发展理念和伦理道德标准。这些国家除了自我推销之外,还不忘搞北京针对非盟友的小动作。他们拼凑出“人工智能防御伙伴计划”、“人工智能全球合作组织”等小团体,兜售所谓“基本自由和民主价值观”。基于人工智能的治理规则。从他们的所作所为来看,这些花哨的举措归根结底都是为了一己私利,企图利用人工智能技术巩固自己的军事优势。作为人工智能技术和产业强国,中国在人工智能及其军事应用的全球治理中肩负着独特的责任,理应发出自己的声音。事实上,中国在人工智能国内治理方面一直走在世界前列。2019年,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》,提出了安全可控、包容共享、责任共担、敏捷治理八项原则。前不久,组委会进一步下发《新一代人工智能伦理规范》,详细说明了从研发到使用的各项措施。近年来,中国积极倡导构建人类命运共同体理念,秉持共同、综合、合作、可持续的全球安全观。在人工智能问题上,中国应该以舍弃之精神举起道义旗帜,代表广大发展中国家发声,早日提出人工智能安全治理的中国主张。人工智能技术发展正处在关键的十字路口,何去何从,有待国际社会的共同引导。不久前,联合国教科文组织发布了《人工智能伦理问题建议书》,重申了和平利用人工智能的几大原则。再过几天,联合国第六次审议大会《特定常规武器公约》将在日内瓦举行。希望在本次会议上,各方能够秉持“智能向善”理念,提出符合全人类共同利益和价值观的人工智能军事应用治理规则。毕竟,人工智能的无序军事应用会给人类带来难以承受的负担,而唯一的出路就是在人工智能领域构建人类命运共同体。