你有关注谷歌备受争议的“ProjectMaven”吗?如果没有,我们将在稍后重述。但让我们从关键要点开始:人工智能(AI)和物联网(IoT)无疑具有军事应用,但这些应用将面临激烈竞争。事情是,在2017年,五角大楼宣布了Maven计划。据TechSpot报道,其任务是在与ISIS的战斗中部署人工智能、大数据和机器学习,目的是筛选和分析数千小时的无人机监控录像。谷歌今年早些时候签署了一项协议,向五角大楼提供分析视频片段的机器学习算法。尽管谷歌保证这些工具只会用于非攻击性目的,但谷歌员工还是被激怒了,一些人签署了请愿书,另一些人则辞职了。6月,谷歌宣布不再续签明年到期的协议。英国指出,这涉及多个项目,这一决定可能会改变该公司在国防承包领域的发展轨迹,因为谷歌认为这笔交易是“赢得更多军事合同的垫脚石”。创立ProjectMaven的前国防部副部长罗伯特·沃克说:“我完全同意他们的观点,我们可能最终会开枪,但它也可以挽救生命,”彭博社报道。道德风险。他们说:这些数据在某些时候可能会严重危及人类生命。我说,是的,但它可以挽救500名美国人或500名盟友或500名无辜平民的生命。”这让我们开始思考:军方正在部署哪些其他人工智能和物联网技术?正如德勤在2015年指出的那样,“军事指挥官将始终依靠信息来决定生与死——无论是数量还是质量。因此,奇怪的是,美国军方长期以来一直采用物联网,并正在寻求扩大其应用。”显然,军事物联网项目比比皆是,但很多都没有争议,而且与战争无关。供应链和安全是显而易见的用途,但真正有争议的用途又如何呢?看看接下来的三个!杀手机器人杀手机器人,也被称为全自动武器,在世界范围内引起了广泛关注。人权观察和哈佛法学院国际人权诊所的报告提出了许多问题,他们2015年的论文确定了各种自主武器系统,包括以色列的铁穹和美国的密集阵和C-RAM。“完全自主的武器,也被称为‘杀手机器人’,由于它们能够在没有有效的人类控制的情况下选择目标,因此引发了严重的道德和法律问题。许多人质疑杀人的决定是否应该由机器决定,并且有还严重怀疑完全自主的武器是否能够复制人类的判断并遵守将平民与军事目标分开的法律要求。”据ZDNet报道,今年4月,韩国科学技术院(KAIST)遭到全球20多个国家、50多所大学的优秀人工智能学者的集体抵制。原因是韩国科学技术大学与军工企业“韩华系统”合作开发了自主武器。研究人员的联合声明:“如果成功开发,自主武器将是人类战争形式的第三次革命。它们将使战争以前所未有的速度和规模进行。这种武器很可能成为恐怖的代名词,独裁者恐怖分子可以用它们来对付无辜平民,消除任何道德约束。如果你打开这个潘多拉魔盒,将很难关闭。”最近,来自数十个国家的160家人工智能公司和组织签署了“不从事也不支持致命自主武器的开发、制造、贸易或使用”的承诺。向敌人发送门钥匙和密码?围绕物联网的争议不是我们用它做什么,而是敌人用它做什么。洛克希德的指挥、控制、战斗管理和通信(C2BMC)系统使用长达48,000英里的机密通信线路,这是一个支持物联网的作战网络。对该公司而言,它将美国军方弹道导弹防御系统的不同元素连接到一个单一系统中,以应对全球威胁。“它从数百个传感器、雷达和卫星中获取数据,并将这些数据转换成一种通用语言,”JDHammond说,洛克希德·马丁公司的指挥和控制总监。导弹防御系统可以交互并对威胁做出反应。”但Radware的PascalGeenens担心军方可能成为勒索软件的受害者。他告诉商业网:“看似无害的摄像头、传感器和其他物联网设备遍布军队,但与地球上的任何设备一样,安全问题也很普遍。一旦漏洞被黑客利用,政府将支付赎金保护互联网的安全。”重新控制武器或其他关键资源?”如果您认为军方不会让这种情况发生,请考虑今年早些时候有关健身数据服务无意中泄露军事基地位置的新闻。接下来,让我们看看真正可怕的东西。天网——没有阿诺德还记得《终结者3》吗?然后,这就是具有自我意识的人工智能网络SkyNet接管的时候。根据国防一号的说法,陆军、海军、空军和海军陆战队正在“致力于实现未来军队的愿景:连接全球战场上的所有资产。”每一件武器、车辆和设备都将连接起来并共享数据。DefenseOne报告:“随时了解全球网络中每个节点的存在和状态,结果:一个难以想象的巨大中枢神经系统,配备了世界上最先进的武器”。Motherboard网站甚至预测:“到2030年,大规模监视、无人机群、半机械人士兵、心灵遥控、合成生物学和激光束将决定未来的冲突。”到那时约翰康纳不会救我们了。伊隆马斯克也很担心。您可能还记得,特斯拉和SpaceX首席执行官埃隆·马斯克(ElonMusk)曾就人工智能(AI)的危险进行过讨论。他认为,如果任其发展,人工智能将比一些专制领导人更容易失控。有道理:但人工智能并非不受控制。《福布斯》技术委员会成员DasGupta指出,有许多技术正在探索如何在技术“变得流氓”时中和技术。不过,他似乎支持马斯克的立场。“有很多专家非常担心当机器人有‘感觉’时会发生什么,也许他们更应该担心的是机器人没有感觉的阶段——也就是现在。”
