辅助驾驶又出事故了。昨日,公众号名为“美衣豪”的发讣告称:林文钦(绰号“萌剑侠”),上山若水投资管理公司创始人、易通天下餐饮管理公司创始人、美衣豪品牌管理公司,驾驶蔚来ES8后搭载自动驾驶功能的汽车(NOP领航状态),沉海高速汉江路段发生车祸,不幸离世,年仅31岁。半个月前,蔚来似乎也陷入了疑似道路安全事故。一时间,蔚来被推到了风口浪尖。有人语重心长地对蔚来汽车喊话:“宣传的时候走上限,有事走下限。”有人现身表示:“只有写代码的人才知道自动驾驶水有多深。”总结:“总的来说,自动驾驶是不可靠的。”暂且不讨论这次事故谁对谁错,但从技术角度来说,雷风网有必要站出来说句公道话:辅助驾驶(这次事件中NIONOP功能的故障)汽车),真的不要让自动驾驶背锅。毕竟普通人对某项技术有正确的认识是非常重要的,尤其是这项技术不仅关乎生命安全,甚至可以直接影响相关政策的制定,直接决定相关行业未来的走向.辅助驾驶≠自动驾驶/无人驾驶辅助驾驶常见的辅助驾驶功能包括自适应巡航、前方碰撞预警、自动紧急制动、车道保持辅助、变道辅助等,这些功能虽然看似复杂,但重点在“辅助”二字上”,它在一定程度上分担了驾驶压力,其核心并不是为了控制汽车。在传感器配置方面,目前的辅助驾驶仅使用摄像头视觉数据,无法全面准确地感知周围环境。摄像头在强光环境下容易出现误判,驾驶员仍需控制车辆。也就是说,在辅助驾驶场景下,驾驶员依然是驾驶的主体。相信在选购配备辅助驾驶功能的车辆时,工作人员会反复叮嘱大家不要掉以轻心,时刻保持专注,手握方向盘。包括蔚来的NOP、特斯拉的NOA、小鹏汽车的NGP,都远没有达到完全自动驾驶的效果。比如,在此前小鹏汽车发起的“小鹏NGP3000公里远征挑战赛”中,雷风网就受邀参与了泉温路段的试驾。路线全长570km,其中开启NGP功能400多km。在一天的驾驶体验中,手动接管了两次:一次是在经过环形坡道时,因为下雨,下坡道时,被前车泼了很多水,一次退出;另一次也是在左边修路,乱堆了很多防撞桶。对此,小鹏汽车明确表示:NGP高速自主导航驾驶功能仍属于辅助驾驶范畴。我们希望通过这个功能的实现,能够帮助司机更轻松、更安全地完成旅程,绝不是司机的替代品。看到这里,有朋友会问了,为什么辅助驾驶系统老是把防撞桶弄坏,识别绕道就万事大吉了?一位业内工程师向雷锋网解释,辅助驾驶系统通常是感知精准的。而且不够准确。另外,规划算法能力不够,越线自动绕行很危险。目前“最方便”的方式是手动接管。自动驾驶自动驾驶原则上不需要驾驶员干预,但由于法律法规和安全要求,现阶段需要在自动驾驶汽车的驾驶座上配备一名安全员(以防发生事故,被手动接管)。此外,在技术方面,自动驾驶比辅助驾驶有更严格的要求。自动驾驶车辆上路前,系统会导入相关区域的高精度地图;车辆行驶在道路上时,车身上的激光雷达、摄像头等传感器实时采集周围信息,更精准的算法系统可以检测道路上的静态/动态障碍物,识别物体并准确预测他们的轨迹。结合各种信息,自动驾驶车辆会做出智能决策,规划新路线,控制车辆行驶轨迹——这是辅助驾驶所不具备的能力。这时候,车辆就成了行车的主体。一般来说,无人驾驶的水平是最高的,相当于完全把驾驶交给了无人驾驶系统。驾驶员座位可能没有安全员,甚至没有方向盘。然而,要实现完全自动驾驶,还有很长的路要走。珍爱生命,理性对待辅助驾驶目前市面上的量产车,无论宣传页面上的说法是L2级自动驾驶还是L2.5/L2+自动驾驶,都严格属于辅助驾驶——和自动驾驶/无人驾驶根本不是一回事。然而,AAA研究表明,在实际驾驶中,配备辅助装置的车辆平均每8英里就会遇到某种类型的问题,实际行驶里程超过4,000英里。也就是说,这些辅助驾驶系统并非100%安全可靠。同时,随着新车辅助驾驶系统配置率的快速提升,开启辅助驾驶系统引发的交通事故也屡见不鲜。包括上面提到的蔚来事故。即便是业界公认的新车领导者特斯拉,也时有失控,尽管特斯拉相信其Autopilot可以挽救无数生命。每个季度,特斯拉都会发布有关其电动车队安全记录的数据,特别是自动驾驶仪开启和关闭时的事故率比较。特斯拉在去年第三季度的报告中写道:开启Autopilot的特斯拉每459万英里仅发生一次事故,而仅配备我们主动安全功能的特斯拉的事故率为242万。一次英里。没有自动驾驶仪或主动安全功能的特斯拉每179万英里就会发生一次事故。相比之下,美国国家公路交通安全管理局(NHTSA)的美国车辆事故频率为479,000英里。看似Autopilot很厉害,但这些数据误导不小。根据麻省理工学院的研究,Autopilot能如此强大主要是因为它主要用于高速公路,比例高达94%。但在高速公路以外,事故率是高速公路的三倍多。虽然Autopilot在特斯拉官方的语境下只能在高速上使用,但是高速行驶很容易,事故率也很低。一次事故可能是一件大事。在辅助驾驶还不成熟的当下,一味追求“自动驾驶”的体验是非常危险的。责任界定困难事实上,类似事故发生时,总是存在一个难题:责任如何界定?2016年,一位特斯拉车主在京港澳高速邯郸路段行驶,与前方扫路车发生追尾事故。死了。交警认定特斯拉车主对事故负主要责任。然而,受害人的父亲对特斯拉提起诉讼,称特斯拉夸大的自动驾驶功能导致受害人在驾驶时放松了警惕,这才是事故的真正原因。如果其完善,不能保证安全,仍通过宣传诱导用户信任本系统,应承担相应的法律责任。同年,北京一位特斯拉车主在开启Autopilot模式时未能避开左侧停放的车辆,导致两辆车受损。车祸发生后,特斯拉车主在网络平台详细描述了车祸过程,并投诉特斯拉夸大自动驾驶功能误导买家。此后,特斯拉中国官网将“自动驾驶”一词替换为“自动辅助驾驶”并发布《车主使用手册》,要求车辆必须由持有驾照的人驾驶,且必须将手放在方向盘上.去年9月发生事故后,理想汽车在官网将原来的“自动驾驶辅助”改为“辅助驾驶”。理想汽车也发布了官方微博声明:“目前,理想ONEL2级辅助驾驶仍侧重于驾驶员对车辆的控制,不能完全代替驾驶员进行决策”,并呼吁驾驶员安全使用该系统。虽然技术在进步,但整个行业还远未成熟。一些黑暗时期当然不会阻止世界继续朝着更先进的自主未来迈进,但这些事故确实给了我们一个重要的机会来思考为什么会发生这次事故,以及我们可以从中学到什么来防止事故重演?借此,车主能够清晰、正确地理解和使用辅助驾驶功能,这或许是成本最低、收益最大的答案。本文转载自雷锋网。如需转载,请在雷锋网官网申请授权。
