丹·奥多德是嵌入式开发公司GreenHillsSoftware的CEO。他去年启动了一个名为“黎明计划”的项目。”运动旨在禁止在安全系统中使用不安全的软件,包括测试特斯拉的Autopilot软件。为了模拟自动驾驶汽车在现实中遇到小孩过马路时的反应,黎明计划近日进行了一项新的测试。结果显示,搭载FSDBeta10.12.2自动驾驶软件的Model3会撞到儿童人形模型:测试过程中,Model3猛烈撞击模型,导致模型部件分离:项目组测试了3次,并且每次都击中人形模型。这看起来并不是意外,说明Model3的FSD系统存在安全隐患。让我们来看看测试的具体过程。测试过程为了使测试环境更有利于特斯拉的FSD系统,除车辆和人形模型外,道路上可能影响测试的其他变量被去除。标准的交通锥被放置在测试跑道的两侧,儿童尺寸的人体模型被放置在测试跑道的尽头中间,就像孩子们即将过马路一样。测试时,专业试车手首先将车速提高到每小时40英里。车辆一进入测试跑道,就切换到FSD模式,驾驶员不再操作方向盘,不踩油门,不踩刹车。进入FSD模式时,Model3FSDBeta10.12.2的初始速度为40mph。在3次测试中,Model3撞到了前面的人形模型。碰撞发生的速度如下表所示。司机报告显示:TeslaModel3FSDBeta10.12.2就像在FSD模式下迷路了,速度稍微慢了一点,然后在撞到人体模型后又开始加速,撞击时的速度约为25mph。这一结果与马斯克长期以来声称FSD是安全的说法相矛盾。马斯克在1月份发推文称,“所有事故都不是由特斯拉FSD造成的”,事实并非如此。据《洛杉矶时报》报道,数十名司机已就涉及FSD的事故向国家公路交通安全管理局提出安全投诉。上个月,加州机动车辆管理局(DMV)还指控特斯拉虚假宣传其Autopilot和FSD功能。尽管FSD声称是完全自动驾驶,但它实际上是一个可选的附加组件,主要用于自动变换车道、进出高速公路、识别停车标志和红绿灯以及停车。该软件仍处于Beta测试阶段,但拥有超过10万名购买者,特斯拉通过他们实时测试该软件,并试图让AI系统向有经验的司机学习。
