
整整耗时两年时间,又一起涉及Autopilot的特斯拉事故终于要揭开谜底。
美国国家运输安全委员会(NTSB)近日公布了2018年3月在加州山景城发生的特斯拉Model X撞车事故的相关文件,这起事故导致车主死亡。当时,Model X在左侧的共乘车道出口匝道上撞上了混凝土护栏,车主当场死亡。报告显示,Autopilot当时处于启用状态。
按照计划,报告具体内容将在2月25日向公众公布。值得注意的是,车主曾抱怨过这辆车在过去的同一地点偏离车道,而车辆数据显示,在事故发生前,这辆车曾多次向左转向分隔线。根据车辆数据,司机曾调整车辆的方向,将其转回左车道。
事故发生前,Model X进入了分隔主干道和出口匝道的区域(也就是通常看到的导流区)。NTSB指出,将导流区与主干道分隔开来的油漆已经褪色,在某些地方已经“消失”。与此同时,将出口匝道与导流区分开的油漆状况要好得多。
车辆数据还显示,当时Model X以大约每小时70英里的速度撞上护栏之前的6秒钟,车主的手没有放在方向盘上。在事故发生前的最后一次Autopilot启用过程中,驾驶员曾两次收到汽车发出的警报,其中一次是声音警报,要求驾驶员把手放回方向盘上。
从车主的iPhone上提取的数据还显示,在驾驶过程中,手机上的一款游戏处于激活状态。所获得的信息无法确定车主在事故发生时是否正在玩游戏。当车辆转向进入导流区时,没有证据表明车主在碰撞前使用了刹车或规避转向。
而从通讯公司获得的记录显示,车辆在行驶过程中使用了数据,但无法确定传输源。其中一个信号在事故发生前不到一分钟的时间里发出。
此外,NTSB还在调查佛罗里达州德尔雷海滩的一起撞车事故,这起事故发生在上述事故发生大约一年后,造成特斯拉车主当场死亡。
文件称,这起事故中,车主在事故发生前10秒钟打开了他的Model 3的Autopilot功能,然后把手从方向盘上拿开。随后,这辆车从一辆牵引式挂车的下方驶过,Model 3的车顶被掀开。这与2016年佛罗里达州发生的另一起事故相似,当时一辆特斯拉直接撞上了一辆横向行驶的白色半挂车。
从特斯拉的前端摄像头拍摄的一张照片显示,事故发生前1.5秒,拖车正在横向穿过道路。来自特斯拉电脑的数据显示,在车祸发生前不到一秒,车主还尝试踩下了刹车。
自2016年以来,NTSB调查了一系列(累计14起)特斯拉Autopilot事故,其中几起是致命的。与其他主要的车辆被动安全设备不同,半自动驾驶系统完全不受政府的监管。
2016年5月,一名特斯拉司机在佛罗里达州发生致命撞车事故,这是此类事故中第一起涉及半自动系统的事故。事故发生后,特斯拉接受了美国国家公路交通安全管理局(NHTSA)的调查,但最终没有发现事故原因。
不幸的是,这似乎已经成为一种趋势,越来越多的人不顾一切地“滥用”带有半自动驾驶功能的汽车,而半自动驾驶功能还没有准备好成为真正的自动驾驶。
去年12月,康涅狄格州的一名Model 3司机在95号州际公路上撞上了一辆停在路边警车的尾部。司机承认使用了Autopilot,当时正转过身来查看后座的狗。与此同时,在印第安纳州,一辆特斯拉Model 3撞上了停在高速公路旁的一辆消防车,车内一名乘客死亡。
这些事故凸显了特斯拉所谓的自动驾驶系统的风险。虽然该公司警告说,在使用该系统时,司机有责任保持对车辆的控制,但有些人却让车辆在一系列事故中依赖自动辅助驾驶系统,其中至少有三起是致命的。
NTSB一直在批评特斯拉的Autopilot缺乏安全保障措施。去年9月,NTSB对2018年加州Culver City的一起特斯拉撞车事故调查发现,该系统的设计“允许驾驶员脱离驾驶任务”。而一些特斯拉车主也表示,在使用该系统时,他们可以长时间不开车。
不过,特斯拉一再辟谣:Autopilot“可以让你的汽车在车道内自动转向、加速和刹车”,但不会让汽车自动驾驶。同时,该公司多次警告称,系统不能防止所有的事故。
当然,当我们谈论自动驾驶汽车时,我们通常指的是开环自动驾驶:一辆汽车可以从任意A点开到任意B点,不需要人工干预。开发和交付取决于可行的商业模式。
如果你真的把FSD(全自动驾驶功能)从特斯拉的配置中剥离出来,这家公司可能失去盈利能力,因为6000美元至7000美元的FSD配售率在30%至40%之间。换句话说,通用汽车、福特汽车和丰田汽车等传统汽车品牌赚的钱没有以前多了,销量也不会增加。
全球投资者在过去数年已经在自动驾驶上投入了1000多亿美元,但这还远远不够。一位特斯拉车主表示,他的特斯拉Model 3已经行驶了数万英里,但他仍然需要时刻保持注意力。
一位行业人士表示,自动驾驶的终极问题不在于传感器,而是数据。同时,如何理解这些数据,知道下一次要注意什么,同样重要。
Uber的自动驾驶致命事故,并不是因为传感器没有看到横穿马路的行人,而是没有决定给予足够的关注并采取适当的行动。
调查结果显示,在2018年3月Uber致命自动驾驶汽车事故前的18个月中,其车队中的自动驾驶测试车还发生了37起撞车事故。其中,软件没有作出反应的部分原因是,系统被调整为忽视那些被认定为“误报”的物体,比如道路上的塑料袋等。
同时,一些自动驾驶汽车工程师也表达了他们对预测道路使用者未来行为的重要性的看法。而特斯拉的优势恰恰在于,它有超过50万辆汽车在路上行驶,可以收集数据,训练神经网络来预测道路使用者的行为。
特斯拉的自动驾驶软件的下一步将是,基于全新的全自动驾驶芯片的全新能力(现有搭载芯片性能的几十倍),在计算机视觉、行为预测和模仿学习方面进行提升。
此前,特斯拉车队每天行驶的英里数——约1500万英里——相当于每年行驶54亿英里,比Waymo预计一年后的总里程高出200倍。特斯拉的车队也在以每周约5000-7000辆的速度增长。
行为预测是系统提前几秒钟预测汽车、行人和骑行人动作的能力。前Waymo技术主管之一的安东尼•莱万多夫斯基(Anthony Levandowski)曾这样表示,“没有人能实现完全自动驾驶的原因是,如今的软件还不足以预测未来。”
此外,大多数公司用于训练目标检测的图像需要人工标记,而特斯拉的机制是无需人工对数据进行标记,可以尽可能多地对其神经网络进行有用数据的训练。这意味着其训练数据集的大小将与其总里程相关。
与对象检测一样,与Waymo相比,特斯拉的优势不仅在于可以获得更多的数据来预测常见行为,还在于能够收集在罕见情况下出现的罕见行为的数据,从而预测这些行为。
下一步,是道路规划和驾驶决策。一直以来,行业很难指定一套规则来涵盖自动驾驶系统在任何情况下可能需要采取的所有行动。解决这一棘手问题的一种方法是利用神经网络来模仿人类的行为,这也被称为模仿学习。
训练过程类似于神经网络通过绘制过去和未来之间的关联来预测其他道路使用者的行为。在模仿学习中,神经网络通过绘制它所看到的和人类驾驶员所采取的动作之间的关联来学习预测人类驾驶员会做什么。
根据一些披露的数据,特斯拉正在将模仿学习应用到实际的Autopilot日常应用中,比如如何处理在十字路口左转、如何以及何时在高速公路上换车道。按照计划,特斯拉后续还将模仿学习扩展到更多的场景。
此外,基于FSD芯片的冗余性能,特斯拉可以在未能正确预测前方车辆是否会进入本车车道时触发“数据重放”(相当于实时仿真,而不是事后再传输至云端数据中心)。类似地,当涉及路径规划或驾驶策略的神经网络无法正确预测特斯拉驾驶员的行为时,特斯拉可能会捕获重放数据。
在被要求提供特斯拉向完全无人驾驶汽车过渡的时间表时,特斯拉的一名女发言人指出,该公司网站的自动驾驶部分讨论了特斯拉未来在无人驾驶情况下的使用。
她引用了马斯克最近一次演讲中的一句话:“自动驾驶有三个步骤。第一步是功能完备,第二步是车里的人不需要保持注意力,最后在可靠性层面上,我们也让监管机构相信这是真的。”
如果有仔细阅读马斯克在过去一年的讲话,也可以大致判断所谓的全自动驾驶技术仍处于早期发展阶段。就在几个月前,在一次与分析师的电话会议上,马斯克谈到了让一辆汽车能够可靠读取红绿灯信号的难度。
“停车标志很容易识别。交通灯和十字路口将是下一个真正棘手的问题,”此外,马斯克还提到了智能召唤功能,在一个购物中心的多层停车场中穿行,有很多车辆和行人,这是事情变得棘手的地方。”
但特斯拉的网站称,“有了智能召唤功能,你的特斯拉会在停车场的任何地方找到你。”这不仅仅是某一项功能的问题,尽管特斯拉的车主手册上对此有警告,但马斯克本人已经多次出现在使用Autopilot时双手离开方向盘的情况。
根据特斯拉发布的2019年第四季度的自动驾驶安全报告,结果对特斯拉来说是积极的。在第四季度记录的Autopilot每行驶307万英里,就会发生一起事故。没有Autopilot但有主动安全功能的,每行驶210万英里就有一起事故。
而对于那些没有Autopilot和主动安全配置的,每行驶163万英里就会发生一起事故。相比之下,NHTSA的最新数据显示,美国每47.9万英里就有一起车祸。显然,从表面来看,Autopilot起到了保证行车安全的作用。
但是,一位特斯拉车主却表示,与2019年第三季度相比,Autopilot的安全系数下降了29%。有些人表示,与第三季度相比,天气可能是每英里发生更多事故的原因。一般来说,第四季度雨雪天气较多,事故较多。
事实上,如果你比较每年的数据,2019年第四季度的结果比2018年第四季度更好。2019年第三季度也优于2018年第三季度。换句话说,特斯拉的Autopilot在不断改进。