当前位置: 首页 > 科技观察

阿西莫夫机器人三定律和Mobileye自动驾驶五项原理

时间:2023-03-19 23:24:38 科技观察

科技旅人11月20日新京报(文/高飞):众多科幻作家的想象终于在现实世界中实现了。科幻大师阿西莫夫曾经有过一个想法。对于AI驱动的机器人来说,除了不断提升机器本身的智能水平,让它变得更有用,在与人类打交道的时候,还需要一个更宏观的、技术至上的指导原则。在他的短篇小说集《我,机器人》中,他写下了这样一套规则,他称之为“机器人三定律”:1.机器人不得伤害人类或使人类处于危险之中;2.机器人必须服从人类的命令,除非与第一定律相冲突;3、机器人在不违反第一定律和第二定律的情况下,可以维持自身的存在。1985年,阿西莫夫发表《机器人与帝国》,将三定律扩展为四定律,并增加了第零定律:机器人不得伤害整个人类,或坐视整个人类受到伤害,形成了更完整的机器人四定律。机器人三定律和四定律虽然在很多关于人工智能的电影和文学作品中反复出现,但一直停留在想象阶段,没有实际应用。一方面,原因在于长期以来,机器的智能化水平还不够高,无法与人类社会的日常生活密切相关;另一个原因是阿西莫夫的原理只是简单的语言符号,并没有形成严格的逻辑闭环。但这并不妨碍阿西莫夫的思想成为一门新学科“机械伦理学”的基础,这是一门以人为中心的关于机器人构造和使用的学科,其核心是如何安全地应用智能机器。对于自动驾驶来说,数据是基石,但不是一切。Mobileye试图在自动驾驶领域写出堪比机器人三大定律,甚至更精确的规则。本月初,置顶网(赛博物语母平台)走访了成立于1999年、总部位于以色列的高科技公司Mobileye。公司主营业务为辅助驾驶系统和自动驾驶开发所需的计算机视觉、机器学习、数据分析、定位和地图建模技术。2017年3月,Mobileye被英特尔公司以153亿美元收购,并与后者的自动驾驶事业部(ADG)合并,组成新的自动驾驶部门,由Mobileye联合创始人、董事长兼首席技术官AmnonShashua教授领衔.图说:Mobileye联合创始人、董事长兼首席技术官AmnonShashua教授长期以来,人们认为自动驾驶汽车的安全性和可靠性只与数据量密切相关。这是因为这次机器学习和深度学习带来的人工智能浪潮的本质是用统计的方法来利用数据,让机器通过“吃掉”海量数据来总结规律和规律。只要有足够的数据,也就是路测的里程足够长,自动驾驶汽车就会更安全。沙舒亚在与我们的交流中表示,在自动驾驶这件事情上,“完全把任务交给统计是不可行的”,不仅要有数据训练,还要有一些常识性的原则,否则会面临很大的困难。发育障碍。障碍之一在于经济。“要让人类信任自动驾驶汽车,安全性必须至少比人类司机好100倍。如果用统计方法实现,这意味着1亿小时的道路测试。以每小时30公里的速度行驶,道路测试距离为30亿公里。”沙舒亚做了一个简单的计算来证明经济上的不可能性。毕竟30亿公里相当于绕地球跑了7万多圈。透明,不公开。”现在的深度学习是基于数据的自动编程,如果一种方法成功了,我们知道它有效,但我们不知道它为什么有效。反之,如果它失败了,我们不知道它为什么失败我们唯一能做的就是不断调整参数,增加数据量,努力让结果更令人满意,但实际上我们对它的“内在”一无所知。但对于自动驾驶来说,透明度非常高重要,毕竟开车太复杂了,涉及社保、司机、乘客、路人,还有交通部门、车企、甚至保险公司等利益相关者,一旦发生车祸,我们无法解释事由无法界定,责任也无法界定,导致自动驾驶难以赢得社会信任。当自动驾驶汽车很可能成为人类不得不考虑的第一个智能机器,如何与它安全相处。Mobileye试图在统计数据之上加入一些人类可以理解的规则,并发布了它的RSS——ResponsibilitySensitiveSafetymodel,中文译为责任敏感安全模型。RSS中制定的各种规则就像阿西莫夫的“机器人三定律”一样,其核心目的也是安全。RSS,机器可以阅读的数学安全“法则”发表在沙树亚教授合着的论文《OnaFormalModelofSafeandScalableSelf-drivingCars》,以及后续的演讲笔记中Mobileye,我们了解到RSS模型是为了实现这样的“目标”而设置的:1.自动驾驶汽车本身不能造成事故(可以是事故的一方,但不能是造成事故的一方);2、自动驾驶汽车应在其他车辆出现错误(导致事故)时,做出正确反应,避免发生更严重的事故。一言以蔽之,自动驾驶汽车永远不应该对事故负责。这个目标的确立可以理解为解决自动驾驶的可行性。如果没有造成事故,就意味着汽车自动竖立不承担事故责任,基本减轻了监管部门和车企的压力。但如果没有合理的方式,也没有办法保证自动驾驶汽车仅靠这个文字符号就能朝着这个目标前进。因此,自动驾驶汽车需要能够回答以下问题:1.什么是可能导致事故的危险情况;2、遇到问题时正确的反应是什么;为避免成为事故的肇事方,如何认定事故的责任方?(即如何避免成为责任方)为了实现这些目标,在本文中,RSS规定了五个基本的常识性原则:1.不要追尾(追尾,前车概不负责)。2、不要突然并道,造成后车追尾(这是前车的责任)。3.拥有“先行权”,但不要试图去争取。(英文是:right-of-wayisgiven,nottake)。比如前面的车辆被挡住,可能是“不是为了让路,而是为了保证安全,可以让路。4.注意盲点。5.如果能避免事故,又不伤到别人,你一定要尽量避免。需要注意的是,RSS不仅仅是一个看似简单的文字符号描述,而是一个强大的数学逻辑来保证它能够实现。像下图这样的公式(关于安全车距)可以在论文中随处可见。沙书亚还强调,这些常识必须基于合理性、有效性和可验证性三个原则来制定。有了这些常识性原则,自动架车的决策系统就可以避免单纯依赖关于统计人工智能安全驾驶的低效率自动驾驶汽车的监管、共识和价值毫无疑问,由于涉及社会和公共安全,自动驾驶是政府将明确的领域y介入监督。在我们参观Mobileye期间,发生了一些重要的消息。Mobileye和大众汽车宣布合作开发自动驾驶叫车服务(也称为移动即服务,MaaS)。Shashua认为,这个项目的关键点在于,这是全球首个涉及政府的自动驾驶MaaS项目。以色列政府承诺成立一个特别委员会来讨论监管障碍和监管框架,以支持MaaS的发展。对于自动驾驶汽车这样的新生事物,沙书亚认为,监管的松紧度非常重要。如果为了安全而过于注重监管,很可能会一事无成。从这一点来看,美国相对宽松,而欧洲则监管严格。太宽松或太严格都不能保证任何事情。以色列进行制度创新,政府介入确保项目安全性和可行性的平衡,“实现创新监管(institutionalinnovation)”。在沙书亚看来,新的技术要求、政府法律合理的监管体系、技术上严密的数理逻辑,形成了一门重要的新学科——“监管科学”(regulatoryscience)。一门与高等数学相结合的新学科,就像阿西莫夫催生了机械伦理学一样。沙书希望RSS不是Mobileye的意见,而是全球自动驾驶行业的共识。作为一个“常识性规则”,同意的人越多,安全性和可用性就越能得到保证。Mobileye现在正在与主机厂合作,与行业供应商合作(百度四个月前宣布将采用Mobileye的RSS模式),甚至与美国和中国的监管机构开展此类工作,以促进共识和协同创新。当我们到达Mobileye时,同样的事情发生了。北京公交集团和北泰智能也同时参观了Mobileye。三方签署了建立合作伙伴关系的谅解备忘录。用北泰智能运营总监李华的话说,“打造交通大数据基础设施”。在以色列,我经历了两次驾驶经历。第一次是自驾。以色列不是一个司机遵守规则的国家。我们一行人在异国他乡小心驾驶时,不时被身后响起的汽笛催促,甚至逆行被超车。所以当我把这条关于自动驾驶网约车的消息发到朋友圈时,一个在以色列工作过的朋友说,这里绝对是发展自动驾驶的好地方,路试场景也够多。第二次是在Mobileye平台支持的自动驾驶汽车上。我们的福特汽车在没有人类司机干预的情况下纵横交错地穿过马路。哪怕换一次线,它的反应速度也远超人类。而事后想想,这也不足为奇。毕竟这辆车的摄像头可以实时考虑到前后200米的路况,不用像人一样急着看后视镜再转弯。事实上,自动驾驶汽车可能已经优于人类司机,但出于跨物种的考虑,我们需要自动驾驶汽车比人类驾驶汽车安全一百倍,才能认识到汽车的质量。新司机。出现。让人类“老司机”保持最多不会超过十年的自信。