接上期……
如果希望大规模降低自动驾驶神经网络在后台的训练成本,同时还不影响模型的训练速度和准确性,实际上Tesla需要解决的首要问题就是对于高价值场景(所谓的Corner Cases)“自动标注”的问题。
在特斯拉的自动驾驶开放日当中,自动驾驶神经网络的负责人给出了实际的案例,来解释Tesla的Autopilot算法中的“Cut-in”模块是如何搜集数据并完成自我训练的。
Autopilot算法当中,负责处理相邻车道的车辆“切入”动作判断/识别的模块是独立运作的。如果希望这个模块(或者说是模型)能够非常好地模仿人类的预判和分析水准,就需要提供大规模的实际道路数据去对它进行训练。
Tesla在这个模块上的做法如下:
1 车辆的前置摄像头将会捕捉前向所有车道的车辆信息,包括本道和临道;
2 车辆的前置摄像头(双目)对于所有视线范围内的运动车辆实体进行测量,测量数据包含车辆位置(相对于本车)和车辆速度;
3 一旦发生临道车辆的Cut-in/切入动作时,即临道前车的轮胎压线触发,则本次行为被本车判定为Cut-in动作,即图中显示红色框的时刻,并记录并上报云端服务器(是否实时上报不详);
4 上报的数据中包含本次Cut-in动作完整的Pattern数据,比如:本车速度、位置,邻车速度、位置,车道线的变化(是否有车道合并或者分叉),红绿灯状态、邻车的前后车速度、位置………等等。
可以想象,Tesla庞大的现有车队,保障了以上Cut-in数据必然会发生大规模的上报。在这些大量的数据喂养之下,位于云端的Cut-in模块会迅速成型并不断进行自我完善。犹如人类驾驶员一样,如果这位隐藏在幕后的驾驶员算法看过足够多的车辆Cut-in场景,它就足够强大。同时,我们看到在这个Cut-in的模型训练过程中,几乎无需人工干预,自动化的目标识别技术可以准确识别每一个Cut-in场景中的结构化数据,尔省掉了人工标注的繁琐。
当把训练好的Cut-in模型下发到车队中的每一台车辆上时,Tesla采取了所谓的Shadow Mode的方式,来“离线”地对Cut-in模块进行校准。
Shadow Mode/阴影模式意味着,Cut-in更新的模型即便被下载到车队,也不会实际指挥Tesla的车辆执行实际的“换道”类别操作,包括“自适应巡航”和“换道超车”等标准的ADAS功能。而是活跃在后台默默进行相关判断。比如上图中,Cut-in模块在Shadow mode下工作,监控到右侧前方车辆之后(上图中的那辆车),会使用当前的模型来判断/预测目标车辆的动作趋势,并在合适的时机(时间和位置点)上给出最终的判断。如果这个对于目标车辆的Cut-in切入换道操作正确了,则无需上报任何数据;如果对这个目标车辆的Cut-in切入换道操作判断失误了(Negative),即上图中的有前方车辆并没有在指定时间和预测位置上切入本车道,则此数据被自动标识为Negative Sample而被送到云端,继续对Cut-in模块进行修正性训练,直到达到下一个可以接受的阶段,再次将模型下发车队。
因此,Shadow Mode状态中的模型训练数据搜集和判别,并不会实际生效,因此在训练过程中是安全的。而且总管整个模型训练——部署——ShadowMode激活——修正——矫正性训练——部署……这个闭环当中,可以看到人力资源基本是不消耗的,系统效率得到大幅度提升。【具体Cut-in模型为例的这些功能模块将在何时达到商用部署标准,并且具体存活在哪些当前的自动驾驶功能模块当中去,本文不做探讨。】
自动驾驶领域中,把模式识别交给神经网络,完成从学习到应用再到反馈和应用升级的闭环,这种做法目前是业内主流。从Mobileye派生出来的Tesla自主视觉识别体系延续这条道路并不意外。但Tesla车辆实际运营数量的绝对优势,给了Tesla独辟蹊径在更大的范围内扩展这个闭环的可能性,这是Tesla的绝对优势。
近期的专利曝光期内,又有Tesla的相关专利浮出水面,而且Tesla在神经网络模型的传递方式上也投入不少,包括收购同行业创业公司,目标只有一个,就是不断完善Tesla Autopilot自动驾驶算法大闭环的生存能力。
下期内容我们会介绍相关信息。敬请期待!
车右智能
info@co-driver.ai
备注:
1 题图来自于互联网搜索,http://st.motortrend.com/uploads/sites/5/2016/05/2017-Tesla-Model-3-2016-Tesla-Model-X-Tesla-Model-S-front-end-in-motion-02.jpg;
2 插图12皆来自于特斯拉自动驾驶开放日的公开宣讲资料。