自动驾驶汽车是人工智能技术最令人兴奋和最具影响力的应用之一。仅在美国,每年就有超过35,000人死于车祸。由于自动驾驶汽车理论上可以比人类驾驶员反应更快,不会酒后驾车、不会边开车边发短信或感到疲倦,因此它们应该会显着提高车辆安全性。该技术还有望为老年人和其他无法轻松驾车的人提供更多的独立性和机动性。在过去三年中,自动驾驶汽车行业的投资已超过2500亿美元。以下是行业中每种自动驾驶车辆类型的典型公司列表:送货机器人:Gofurther.ai、Idriverplus、Kiwibot、Neolix、Nuro、Refraction.ai、Scout(亚马逊)、ServeRobotics、StarshipTechnologies、UnityDrive、Yours技术。穿梭巴士和公共汽车:Auto(Ridecell)、百度、Beep、CoastAutonomous、e.Go、EasyMile、LocalMotors、MillaPod、MayMobility、Navya(软银)、Ohmio、OptimusRide、Sensible4、TransDev、VentiTechnologies、Voyage(游轮),宇通。出租车:Argo、Aurora、AutoX、百度Apollo、Cruise、滴滴出行、东风、现代、Motional、小马智行、Waymo、文远知行、Zoox(亚马逊)。卡车:Aurora、戴姆勒、Einride、Embark、Gatik、Ike(Nuro)、Inceptio、KodiakRobotics、Locomation、Plus.ai、Pony.ai、沃尔沃、特斯拉、TuSimple、Udelv、UPS、Waymo、Zipline。消费类汽车:苹果、极光、百度、宝马、克鲁斯、戴姆勒、福特、本田、华为、现代、起亚、马自达、日产、标致、上汽、斯巴鲁、塔塔Elxsi、特斯拉、腾讯、丰田、大众、沃尔沃。但自动驾驶汽车真的会更安全吗?汽车行业面临的最大挑战主要是边缘案例导致的意外情况。事实上,两项新的汽车安全标准ISO26262和UL4600试图解决这些边缘情况。但是,这些标准不是强制性的,监管机构不要求自动驾驶汽车遵守这些或任何其他自动驾驶行业特定标准。更糟糕的是,正如我将在下面解释的那样,有充分的理由相信某些类型的自动驾驶汽车可能无法处理这些边缘情况。自动化水平首先,让我们定义“自动驾驶”的含义。汽车工程师协会定义了六个级别的自动驾驶技术,如下所示:L0:人类驾驶员负责所有驾驶功能L1:某种级别的驾驶员辅助(可以是自适应巡航或线路保持/居中)L2:部分自动驾驶(自适应巡航和路线居中),但驾驶员必须保持控制(手放在方向盘上,眼睛盯着路线,或两者兼而有之)L3:有条件的自动驾驶(在某些情况下,驾驶员可以离开方向盘双手做自己的事情,但必须在车辆提示时进行干预)L4:高度自动驾驶(在某些场景下,例如指定的城市街道和/或校园道路,驾驶员无需干预控制)L5:完全自动驾驶(无需人为干预控制)L3-5被认为是一种自动驾驶系统(ADS),驾驶员无需关注道路。在第3级,驾驶员可以看书或看电影,但如果车辆要求,驾驶员必须能够在10-60秒内接管车辆的控制权。3级车辆的一个大问题是,在驾驶员接管的10秒过渡期间可能会发生碰撞,因此3级车辆可能需要包括不会因10秒交接而导致事故的ODD(例如高速公路交通流量低)果酱场景)。4级和5级之间的区别在于,4级车辆仅限于在运行设计域(ODD)内自主运行,该域通常包括受限的地理区域(例如城市中指定的一组街道),并且可能包括基于天气、一天中的时间、降水量、道路坡度和曲率等因素的限制。Level5车辆可以不受限制地行驶到任何地方,理论上是消费车辆和商用卡车的有效替代品。当今道路上的许多消费车辆,例如特斯拉,都具有驾驶辅助功能。它们使车辆保持在车道中央,并可以自动加速和制动。然而,司机在驾驶这些车辆时阅读或看电影是不安全的。司机必须持续监控道路并随时准备接管控制权。这些是Tier2车辆,不被视为ADS。司机必须注意路况并准备好立即接管。例如,上周我在纽约高速公路上以Autopilot模式行驶时,我的Tesla遇到了一个大颠簸。我的特斯拉转向并发出“叮叮当”的声音,意思是“史蒂夫,你靠你自己了”,我不得不迅速做出反应,把它开回我的车道。这些2级车辆的一个问题是,“全自动驾驶”等营销术语可能会诱使驾驶员采取危险行动,例如2021年4月发生的特斯拉撞车事故,驾驶员座位上无人驾驶。No.大问题:边缘案例人们在开车时使用常识推理来处理各种意外情况:一只鹿飞奔到高速公路上;洪水使道路困难或无法通行;汽车打滑并试图爬上一座结冰的山坡。人们不会在驾校学习所有这些可能的边缘情况。相反,我们使用日常常识推理技巧来预测行动和结果。如果我们看到一个球在街上滚来滚去,我们就知道要注意追逐它的孩子。当我们看到前面的车突然转向时,我们会改变驾驶行为,因为我们知道司机可能喝醉了或正在发短信。不幸的是,没有人知道如何将人类常识推理构建到汽车或通用计算机中。ADS开发人员必须预测和编程每一种可能的情况,而不是常识性推理。机器学习只能帮助制造商预测每种情况,并提供每种可能情况的训练示例。更糟糕的是,这些边缘案例的数量达到数百万甚至数十亿。每个人都至少有过一次不寻常的驾驶经历。世界上有14亿司机。如果有14亿个这样的边缘案例,如何将它们全部识别出来?更何况他们都得到了相应的编程?如果ADS不能使用常识推理来处理所有这些边缘情况,它们真的比人类司机更安全吗?常识推理的重要性在于,与ODD相关的4级车辆仅限于特定的ODD,以实现自动驾驶。与没有ODD的5级车辆相比,这往往会显着减少边缘情况的数量。例如,我们已经看到公司园区内运行非常缓慢的4级点对点班车。这些车辆不太可能遇到许多边缘情况,因为在两个地点之间的道路上不会发生很多意外情况。即使发生什么事,穿梭机的行驶速度也非常缓慢,对乘客或行人的风险很小。ODD仅限于特定城市街道的4级机器人出租车将遇到比公司班车更多的边缘案例,但可能远不及消费级车辆可能遇到的边缘案例数量。通过将驾驶区域限制在特定街道,可以维护非常详细的地图(包含交通灯和建筑区域的丰富细节)。相比之下,5级车辆必须能够在世界上所有街道上自动驾驶——或者至少是消费者所在国家/地区的所有街道上。据《华盛顿邮报》统计,仅在美国就有超过100万条道路。这就是为什么这么多ADS开发人员在凤凰城、旧金山和许多其他城市测试自动驾驶出租车的原因。大多数测试都由安全驾驶员监控,他们随时准备在发生危险情况时立即接管。然而,只有少数自动驾驶测试是在限制性ODD条件下进行的。自动驾驶汽车不像人类那样“看世界”。ADS的另一个问题是计算机视觉系统容易出错,因为它们可能会被人类通常会识别的情况所愚弄。例如,研究人员证明,限速标志的微小变化可能会诱使机器学习系统认为该标志说的是85mph而不是35mph。同样,一些黑客使用颜色鲜艳的贴纸来创建假车道,以诱使特斯拉的Autopilot变道。在这两种情况下,这些变化都骗过了汽车,但没有骗过人。此外,不良行为者有很多方法可以诱骗汽车或卡车驶离道路或撞上障碍物。自动驾驶汽车看待世界的方式与人类之间存在许多差异,这些差异引起了人们对被黑客利用的担忧。例如,在现实世界中,许多特斯拉车主反映他们的汽车经常将阴影(例如树枝的阴影)视为真实物体。在Uber测试车撞死行人的案例中,汽车的物体识别软件首先将行人分类为未知物体,然后是车辆,最后是自行车。我不知道你怎么看,但我认为不能100%准确地识别道路上的行人和其他物体,无论是行人、司机还是车辆,这是一件很糟糕的事情。为什么测试很重要我们有很多充分的理由相信ADS会比人类驾驶员更安全,我们也有很多充分的理由担心ADS不会像人类驾驶员那样安全。从监管的角度来看,在没有证明它们比人类驾驶员更安全的情况下,让ADS开发人员自行决定将ADS上路是愚蠢的。但这正是监管机构正在做的事情。美国国家公路交通安全管理局(NHTSA)的立场:自动驾驶汽车的安全优势至关重要。自动驾驶汽车拯救生命和减少伤害的潜力源??于一个关键而悲惨的事实:94%的严重车祸是由人为错误造成的。自动驾驶汽车有可能从碰撞方程中消除人为错误,这将有助于保护司机和乘客,以及骑自行车的人和行人。当您考虑到美国每年有超过35,000人死于与机动车相关的事故时,您就会开始理解驾驶员辅助技术可以帮助挽救多少生命。美国国家公路交通安全管理局(NHTSA)于2020年12月发布了ADS安全建议框架,该框架遭到美国国家运输安全委员会(NTSB)的批评,原因是“……缺乏强制性的安全自我评估适当流程”。从公共文件中截取的图片NTSB还指出,在没有联邦法规的情况下,各个州正在制定自己的法规。例如,亚利桑那州的限制最少,NTSB称其至少对2018年UberADS导致的行人死亡负有部分责任。佛罗里达州法令316.85特别允许自动驾驶汽车的运行,并明确规定司机不需要在自动驾驶汽车中注意道路(例如,驾驶员可以看电影)。它还明确允许无人驾驶汽车无需驾驶员参与。法规不要求制造商通过安全测试作为自动驾驶功能的先决条件。汽车、卡车、公共汽车或出租车公司可以在他们认为准备就绪时自由测试和销售自动驾驶车辆。我在佛罗里达州有住所,这让我感到害怕。许多其他州也鼓励引入不需要前部安全标准的自动驾驶汽车。ADS的安全标准自动驾驶汽车需要进行三项不同的安全测试。第一项测试是确保将信息输入AV决策机制的所有组件都正常工作。一年前在台湾,一辆处于自动驾驶模式的特斯拉Model3以每小时70英里的速度撞上一辆翻倒的拖拉机拖车。据报道,事故是由汽车前向传感器阵列中的软件故障引起的,该故障导致自动制动无法正常工作。传感器测试应足以防止此类故障。Waymo(谷歌)报告说,它在将每个摄像头安装到汽车之前对其进行测试,然后在汽车集成后再次测试,最后,它测试与摄像头相关的各种功能,例如检测行人的能力。ISO26262标准已被汽车行业广泛采用,用于测试软件错误和硬件故障。它确保传感器和其他组件按设计工作。第二种安全测试是为了证明车辆可以处理预期遇到的现实场景类型。2016年,NHTSA列出了36种应该进行测试的场景,但指出这并不是一份完整的清单。示例场景包括:检测和响应速度限制变化和速度建议执行高速合并(例如,高速公路)执行低速合并Waymo在驾驶模拟器和113英亩设施的封闭课程中测试了这些和其他场景在加利福尼亚州,然后在真正的街道上与安全驾驶员进行测试。测试边缘情况第三种应该进行的安全测试是分析系统在遇到未经培训或编程的意外情况时安全响应的能力。业界制定了两个标准来支持此类安全测试:ISO21448,也称为预期功能安全(SOTIF),专为1级和2级车辆设计,但也可用于ADS;UL4600专为ADS设计而设计。这些标准要求开发人员列出并测试已知的边缘情况。但是,这两个标准都不能确定ADS的安全级别,因为它们不测试未知的边缘情况。那么,您如何测试未知的边缘情况?一种方法是使用脱离数据。在加利福尼亚州,许多制造商正在旧金山等城市测试自动驾驶出租车。这些车辆以4级模式运行,ODD仅限于特定的城市街道,但也有高度警惕的安全驾驶员准备立即接管,就好像它是2级车辆一样。当车辆出现问题时,安全驾驶员接管。这称为脱离接触。我们知道人类在两次事故之间平均行驶了多少英里。如果假设每次脱离都会导致事故,那么脱离率可以与人类(或更具体的出租车司机)的事故率进行比较。不幸的是,估计自动驾驶汽车需要行驶多少英里才能证明安全并不简单。兰德公司在2016年估计,这需要数亿英里的自动驾驶里程,这是不现实的。但从那时起,仅Waymo一家就记录了超过2000万的自动驾驶测试里程。另一个问题是我们没有关于特定ODD的人类驾驶员事故的统计数据。但是,我们至少可以将特定ODD的ADS事故率与人类驾驶员的总体事故率进行比较。鉴于90%的人类驾驶员事故是由人为错误引起的,即使我们使用细粒度的ODD统计数据,它也可能不会偏离总体事故率太多,因为大多数事故都是由人为错误引起的。最后一个问题是,在ADS测试期间发生的许多脱离不会导致事故。许多脱离是出于良性原因,例如需要在非ODD街道上行驶。尽管如此,可以增强ADS测试过程以允许进行某种程度的比较。例如,Aurora安全驾驶员会记录他们为防止事故而脱离的次数。同样,Argo记录脱离事件的传感器数据,分析人员可以使用这些数据来审查脱离事件。Waymo使用脱离传感器数据在模拟中重新创建脱离条件,以确定如果安全驾驶员没有脱离,车辆是否会发生碰撞。Aurora、Argo和Waymo等公司正在测试4级车辆——主要是机器人出租车。分析5级消费车辆的脱离数据更加困难,由于环境种类繁多,安全驾驶员很难对其进行测试。然而,在使用Level2ADS时,消费者车辆实际上有一个安全驾驶员,而安全驾驶员就是消费者。事实上,一些消费级车辆记录了相当多的脱离。例如,当特斯拉处于自动驾驶模式并且人类驾驶员接管时,这将被记录为脱离并报告给特斯拉总部。但据我所知,特斯拉不会与监管机构分享这些数据。尽管如此,消费汽车制造商仍可以让负责记录脱离原因的安全驾驶员对他们的车辆进行测试,监管机构可能会要求ADS开发商共享该数据。自动驾驶系统(ADS)旨在驾驶汽车、出租车、公共汽车或其他车辆,而人类可以在车内做其他事情(例如读书)。3级和4级ADS对运行设计域(ODD)有限制,其中可能包括受限制的地理区域和基于天气、一天中的时间、降水量、道路坡度和曲率以及其他因素的限制。5级车辆可以在任何地方运行并且没有ODD。有充分的理由认为ADS将比人类驾驶员更安全。毕竟,他们永远不会感到疲倦、开车时发短信或酒后驾车。也有充分的理由假设它们不会更加安全。没有人知道如何将常识植入计算机。然而,ADS需要常识推理来处理它可能遇到的所有意外情况(edgecases)。如果没有常识性推理能力,ADS只能处理已明确编码到ADS软件中或ADS已被训练处理的边缘情况。当遇到ADS工程师没有预料到的边缘情况时,可能会发生事故和交通堵塞。事实上,ADS可能对某些ODD是安全的(例如以5英里/小时的速度在街道上穿梭的公司班车),但对其他人(例如覆盖广泛地域和所有天气条件的出租车服务)则不然。)可能不够安全,或者无法实现5级自动驾驶。美国和世界各地的监管机构正急于将ADS技术推向市场,因为它具有潜在的好处,包括降低事故率以及改善老年人和残疾人的行动能力。例如,美国国家公路和运输安全管理局(NHTSA)表示,它认为没有必要测试ADS功能。某些ADS将被证明对特定ODD是安全的。一些ADS可能证明对其他ODD和/或5级驾驶不太安全。在允许ADS进入公共道路之前,是否应该要求ADS开发人员证明ADS至少与给定ODD的人类驾驶员一样安全?缺乏监管有可能将我们的道路变成具有灾难性后果的大规模实验。
