当前位置: 首页 > 科技赋能

机器人已经开始“杀死”人类,它们会取代人类还是解放人类?

时间:2024-05-22 19:27:20 科技赋能

机器人开始“杀戮”。

不久前,位于新泽西州的亚马逊运营中心就发生了这样的事故。

当机器人不小心刺破防熊喷雾,喷雾从架子上掉落时,防熊喷雾中含有的大量浓缩辣椒素被释放出来,导致十多名员工呼吸困难,24人住院。

其中一人情况危急。

虽然最终没有人丧生,但机器人的“杀人”行为再次给人类上了严重的“教训”。

机器人“杀人”的历史由来已久。

事实上,机器人造成人类受伤甚至死亡的例子不胜枚举。

早在四十年前的日本广岛,工厂里的切割机器人在切割钢板时就发生了异常。

它将一名正在值班的工人当作一块钢板,最终导致了该工人的死亡。

事故发生后的第二年,即密歇根州福特铸造厂,一名装配线工人被工业机器人手臂击中身亡。

福特被法院责令赔偿该员工家属1万美元; 2009年,日本山梨县一家阀门加工厂的工人在调整一台停止使用的螺纹加工机器人时,机器人突然启动,酿成惨剧;更离奇的是,2009年,前苏联国际象棋冠军古德科夫与机器人对弈时,古德科夫得意连胜,并表示机器人的智力无法击败人类。

戏剧性的是,机器人对手突然向金属棋盘释放出高强度电流,而古德科夫的手恰好放在了棋盘上。

就这样,著名的国际象棋大师意外地丢了性命。

最近、最著名的事件是今年二月英国首例机器人心脏瓣膜修复手术。

手术过程中,达芬奇机器人发狂,不仅将病人的心脏缝错位,还刺穿了病人的主动脉。

由于机器人主机运行噪音较大,手术医生和助手只能完全依靠吼叫进行交流。

期间,机械臂多次撞击医生的手。

尽管外科医生奈尔和他的助手看到了这种情况,但他们还是从机器人手术转向了传统的手工手术。

然而,当他们准备修复机器人犯下的错误时,病人的心脏已经非常“虚弱”。

一周后,接受英国首例机器人心脏瓣膜修复手术的患者死亡。

这起事件的爆发引起了全世界的关注,也对达芬奇机器人的后续推广应用造成了重大影响,达芬奇机器人原本可以缝制葡萄皮,突破人类双手的限制,可以在无法到达的地方进行操作。

是由人类的双手所达到的。

英国最终花了三年时间才弄清楚事故原因。

主刀医生奈尔坦言,这次手术中他操作医疗机器人的经验很少,过于焦虑。

他在手术前没有完成手术培训课程。

同时,奈尔也承认,他没有告知患者,他是英国第一位接受机器人手术修复二尖瓣的患者。

手术风险很大,采用传统手法手术存活率会更高。

虽然机器人引发的事故四十年来一直没有停止过,但许多悲剧的最终罪魁祸首其实是人类。

此次亚马逊机器人“谋杀”事件也不例外。

机器人被广泛使用,但也存在严重问题。

目前,机器人在物流仓储行业的应用已经非常广泛和成熟。

亚马逊、阿里巴巴、京东、菜鸟网络等电商和物流公司已经通过机器人的大规模使用,从传统物流升级为智慧物流。

机器人的应用也很常见,包括仓储中的分拣、包装、传输、搬运等。

即使是最难自动化的最后一公里物流配送,京东、美团等都在尝试通过自动驾驶汽车和无人机来解决。

与此同时,仓储物流市场也呈现井喷发展。

有机构预测,近年来国内智能仓储物流市场规模将突破亿元。

发生事故的亚马逊仓库已经在全球投入使用超过10万台机器人。

机器人的稳定性和安全性应该是非常可靠的,但悲剧还是发生了。

据悉,亚马逊在其配送中心部署的机器人主要用于分拣和搬运物品。

虽然目前还没有关于事故原因的详细报道,但可以预见,事故原因主要集中在几个方面。

这包括员工上岗前的培训、机器人设备操作是否遵循规则、机器人本身的稳定性和智能性是否满足要求。

事实上,人类在使用机器人时经常会遇到一些问题:一是机器人智能不够,稳定性差。

日本、德国甚至前苏联早年技术发展很快,因此也更早地使用了机器人等“黑科技”。

但遗憾的是,当时的机器人设计和稳定性还不够成熟和完善,导致了机器人把工人当钢板、机器人误伤流水线工人、比赛时突然释放高强度电流等悲剧。

与国际象棋冠军。

其次,还有由于人类急功近利或??操作不当而造成的事故。

以英国手术为例。

而今年7月,德国鲍纳塔尔工厂也发生了一起事故。

当时,一名负责协助安装机器人的工人正在安全笼内。

安全笼将工人与操作金属的机器人隔开。

然而,出乎意料的是,另一名工人也在现场,但并不在安全笼内,因此这名工人被机器人视为障碍物。

这导致了悲剧。

此外,还存在技术限制,尤其是在自动驾驶领域。

今年3月,一辆Uber自动驾驶汽车意外撞死了一名行人。

据当地警察局长的说法,受害者突然从阴影中出现在道路上,无人驾驶在任何模式下都很难避免这样的碰撞。

从技术角度解释是,无人驾驶传感器融合方案的局限性导致在恶劣天气和夜间无法正确识别甚至无法识别行人。

取代人类还是解放人类? 2007年,科幻作家阿西莫夫为了防止机器人伤害人类,提出了“机器人三原则”:1、机器人不能试图伤害人类,也不能袖手旁观人类被伤害;2、机器人不能试图伤害人类,也不能袖手旁观。

2、机器人应服从人类命令,但不得违反第一原则; 3、机器人应保护自己,但不得违反第一、第二原则。

但这三个原则存在明显的逻辑漏洞,无法解决实际问题。

随着机器人和人工智能的进一步应用,其引发的安全问题成为很多人关注的焦点。

一些业内人士甚至对此感到担忧。

特斯拉首席执行官马斯克曾在推特上表示,“我们必须非常小心人工智能,它可能比核武器更危险。

”史蒂夫·霍金还表示,人工智能可能是“真正的危险”,机器人可能会找到改进自己的方法,而这些改进并不总是有利于人类。

“他认为,人工智能的进化并不一定是良性的。

一旦机器人达到了能够自我进化的关键阶段,人类就无法错误地检测到它们的目标是否与人类相同。

人工智能的进化速度可能会比人类快。

”人类,以及人类,都需要确保人工智能的设计符合道德标准,保障措施到位,因此,在2018年国际人工智能大会上,马斯克、苹果联合创始人沃兹尼亚克、DeepThinking创始人表示。

开发“阿尔法围棋”的萨比斯与其他科技行业名人和从业者签署了一封公开信,呼吁联合国像禁止生物和化学武器一样,禁止在战争中使用致命自主武器和“杀手机器人”。

亚马逊还向美国联邦通信委员会提交了一份公开信,报告显示亚马逊正在开发一项确保机器人安全的新技术。

这项技术可以有效防止仓库中的机器人误伤人员。

事实上,人类对机器人有着不同的认知和期望。

在普通消费者眼中,机器人发展太慢,不够“智能”,无法思考;在一些专家看来,机器人的发展速度非常快,最终可能会取代人类或者解放人类。

这是个好问题吗? 。