人工智能武器正顺应历史潮流,发展到今天的危险一步。人工智能会杀人吗?答案是肯定的。本月,俄罗斯媒体Sputnik披露了第一起有记录的人工智能无人机杀人事件。在利比亚首都郊外,一支全副武装的国民军小分队正在按计划撤退。突然,一架无人机出现在队伍上空,一阵机枪扫射后,一名全副武装的男子倒在了血泊中。事后,联合国安理会利比亚问题专家组发现,土耳其STM公司生产的“卡尔古-2”无人攻击机没有后台人员控制,完全是通过预先编好的程序执行的。跟踪和攻击。也就是说,当时“卡古二号”无人机是在没有人下令的情况下,主动杀人的。AI成为战场新宠。这种类似于“卡古-2”无人机,具有自主攻击能力的军用装备,属于致命性自主武器系统(LAWS),俗称“杀手机器人”。它们可以在自动模式下完成多项操作:在完成军事任务的同时,根据设定的参数发现和识别目标,跟踪目标,引导武器,减少己方人员和平民的伤亡。作为新型作战力量的代表,自主杀伤性武器正受到越来越多国家的重视。早在20世纪80年代,美军就成立了人工智能中心,专门研究人工智能在军事上的应用,希望在未来用机器人士兵取代传统士兵。迄今为止,美国、法国、俄罗斯、日本、英国、土耳其、伊朗、韩国等国家已加紧研发和采购杀伤性自主武器系统,近400个自主武器和军用机器人系统已经投入使用。被披露。种类。与人类士兵相比,机器人士兵的优势十分明显:随着AI能力的提升,自主武器可以代替人类士兵执行高难度、高风险的任务,最大程度避免自身人员伤亡;提高目标判断的准确性和打击的准确性,减少平民伤亡和其他附带损害;通过自主识别、智能分析等技术,可以避免因管制员注意力不集中、目标误判等人为失误造成的意外伤害。在今年5月初的巴以冲突中,人工智能技术已经在信息战中崭露头角。据报道,以色列国防军使用Alchemist、Gospel和DepthofWisdom这三个AI系统击杀了包括高级指挥官和导弹在内的总共150多名哈马斯特工。项目研发人员,大大降低了平民的误伤率。对于这场战斗,以色列将其定义为“世界上第一场涉及人工智能的战争”。图|以色列防空系统我们可以看到,以色列依靠强大的人工智能能力,牢牢占据了信息层面的优势,而哈马斯只能让以色列情报机构收集数据。以色列国防军(IDF)情报部门一名高级官员对媒体表示:“这是人工智能首次成为与敌人作战的关键部件和战力放大器,对于以色列军方来说,这是前所未有的。”SK率先反对,任何硬币都有两个面,AI的军事化也不例外。当自主杀伤性武器的智能化水平发展到一定程度时,也会带来相应的风险。关于人工智能的军事应用,美国新安全中心技术与国家安全项目的研究员曾认为,人工智能可能像核武器、计算机或飞机的发明一样对军事产生重大影响。许多年前,在一份132页的报告中,新美国安全中心谈到了人工智能军事化的几种危害。例如,随着无人机成本的降低,军队将大量生产小型廉价的军用人工智能机器人。;数以百万计的小型人工智能无人机的扩散将威胁到美国的国家安全。该报告还设想了一个情景,即航母战斗群将如何应对数百万神风敢死队自杀式无人机的袭击?这份报告并非危言耸听。此类武器很容易被武装恐怖分子或极端分子获取,或被交战国大规模使用,从而引发新的冲突和军备竞争。据传,包括极端组织“伊斯兰国”在内的多个武装组织都装备了无人机。叙利亚恐怖分子还多次使用无人机袭击叙利亚政府军和俄罗斯在叙利亚的军事设施。这类AI武器已经普及到越来越多的国家,而且价格更低,品种也更多样化。正因为如此,科学家和企业家们一直反对将AI军事化比作军队。比如特斯拉的创始人马斯克,就特别反对武器的人工智能化,一直在公开发表“人工智能威胁论”。马斯克曾发推称,人工智能领域的大国竞争“极有可能”成为第三次世界大战的起因,甚至是冲突的导火索。潘多拉魔盒已经打开?“我们行动的时间不多了,这个潘多拉魔盒一旦打开,就很难再合上了。”在2018年日内瓦峰会上,联合国常规武器公约(CCW)的一组成员开始就自主武器进行正式谈判,希望达成一项禁止自主武器的条约。不过,与会各国只是达成了一系列不具约束力的提案,却避而不谈政策制定。毕竟谁也不想在人工智能武器的建设上落后于其他国家。会议期间,美国、澳大利亚、俄罗斯、韩国、以色列等国多次表示愿意继续探讨发展杀手机器人的优势和收益。许多人表示,禁止自主武器可能会阻碍人工智能的发展。也有人担心,如果一些国家任由他人禁止,将存在严重的安全隐患。最终在美俄的坚决反对下,全面禁止AI自主武器的谈判无果而终。不过,比起政府的含糊其辞,AI领域科学家和企业家的态度要执着得多:绝不允许“杀手机器人”出现!日内瓦峰会开幕前,来自36个国家的160家人工智能相关企业和90个国家的2400名个人签署了一份宣言,誓言绝不利用自己的技能研发“杀手机器人”。这份协议的全称是《致命性自主武器宣言》(致命自主武器承诺),是在瑞典斯德哥尔摩举行的2018年国际人工智能联合会议上发起的。严禁研发和使用。宣誓者中就有我们的老熟人马斯克。但不得不说,虽然很多人都在抵制武器的人工智能化,但是人工智能在武器上的发展从未停止过,全球人工智能军品的数量呈指数级增长。根据波士顿咨询集团的数据,2000年至2015年间,全球军用机器人在无人驾驶车辆上的支出增长了两倍,从24亿美元增至75亿美元。预计到2025年将再次翻一番,达到165亿美元。伦理是AI武器的最后一道屏障自2013年4月以来,和平组织PAX发起了国际知名的StopKillerRobots运动,一直在推动禁止自主武器的研发、生产和部署,同时注重法律、道德和安全问题。对于PAX来说,AI武器必须被禁止的最重要原因是道德问题。当技术问题无法阻止人工智能武器的发展时,道德成为人工智能武器的最后一道屏障。许多人认为,致命的自主武器很难区分伤员和战俘,可能导致“过失杀人”。如果把决定生死的权力交给机器,就意味着“道德责任的缺失”。由于战场形势复杂或程序失误,自主杀伤性武器脱离人类控制后,对失去战斗力的伤员和即将投降的士兵来说,很难完全避免误伤,变得更加更难遵守相关国际法。这些问题的出现,以及由此引发的道德伦理问题,让越来越多的人开始讨论如何从道德、条约、法律等不同层面规范自主杀伤性武器的研发和使用。同样,任何AI技术都无法避免战场上的误伤。据加沙卫生官员报告,至少有243名巴勒斯坦平民在巴以冲突中丧生,其中包括66名儿童。人工智能技术并没有阻止这些悲剧的发生。结语百年前,化武的出现同样给无数生命带来伤痛。但我们从来没有因为化学武器的危害性而停滞化学的发展,我们只是禁止使用化学武器。同理,AI武器也只是随着历史的潮流“走到”了这一步,本身并没有对错之分。任何技术都有利有弊。由于人工智能在军事上的应用趋势不可阻挡,因此需要通过法律和政治加以制约。人类士兵有日内瓦公约这样的法律协议来指导他们,人工智能武器野蛮发展的原因之一就是受到的限制太少,目前只涵盖制式武器武装冲突法的保护.从积极的方面来看,随着政策的不断完善,未来国际禁令的势头正在增强。目前,已有30多个国家明确支持禁止完全自主武器。此外,受到人工智能武器威胁的发展中国家也组织了一个团体呼吁禁令。相信在政策不断完善之后,我们会看到AI在保护平民等方面做出更大的努力。
