昨天上海Tesla工厂正式对外交付国产Model3,顺道发布ModelY的国产化计划。特意飞来的Elon Musk志得意满High上天,在交付台上现场热舞不说,还前后会晤了上海本地的最高领导人,两位!(市长和市委书记)显示出即便在两国贸易大背景不算和谐的前提下,Tesla几乎是独一无二的良好势头……
这不仅仅在汽车圈儿,在上海当地,都可谓十足十的超级明星了!
也确实配得上,服气。
我们依旧继续我们对于Autopilot/神经网络及训练方法框架的技术分析,可不算蹭热点哦。只有回归扎扎实实的学习,才有进步的可能性。
上期文章我们讲了Autopilot是如何将ShadowMode/影子模式技术,巧妙地安插到现在的Autopilot自动驾驶算法训练大闭环之内的,这个思路其实不难想到,但是实际支撑Tesla可以这么干的主要原因还是手里掌握的、数量庞大且真实存在的车队;而且以L2存在并且实际运行的Autopilot自动驾驶技术(虽然名字很容易让一般消费者迷惑),客观上让Tesla在法律层面上避免了不必要的麻烦(当然前提是要严格确保驾驶员和乘客的生命安全)。
因此,客观上Tesla的Autopilot就位于一个极有利的竞争身位。
这个也是羡慕不来的。神经网络技术负责人特别提到,对于临道车辆Cut-in行为的预测模块大概是在三个月前上线的(2019年初),三个月的运行所获取的数据已经足够保证对于现有模型的有效训练。他说如果特斯拉车主认真观察,可能会发现现在Autopilot模式下,特斯拉对于临道车辆的行为预测,会在一个比较高的准确率上……此时现场一位听众(应该不是托儿)举手发言表示他确实观察到了这个进步。
当讲完Shadow Mode的时候,一旁观战的Elon Musk本人也忍不住主动站起来发言。Musk说,“实际上每一位特斯拉车主都在潜移默化地训练我们的自动驾驶算法Autopilot,不论白天还是黑夜,这是毫无疑问的。”
接下来谈到的模块是Path Prediction/道路预测模块,这个模块的运行原理和Cut-in预测模块基本一致。特斯拉庞大的车队在十字路口和复杂路段(可能是早期的目标场景),会自动上报车身全景视频信息和实际地理位置的对应数据(成对上报)。其中实际地理位置信息的上报是依赖GPS和IMU的数据,全景视频信息就是车身全角度的摄像头信息。这对信息被以组合的形式送入Tesla的云端Autopilot训练平台,相当于给每一个上报的视频全景信息已经打好了地理位置信息的“标签”。
经过训练并完成Path Prediction模型建立和下发之后,则任何一辆特斯拉的车辆都会受益,如下图所示:
实际行驶中的Tesla车辆会根据视频信号的输入,来判断驾驶员的驾驶意图,并在中控显示板上直接给出道路走向(绿色标线)。Elon Musk此时又在旁边补充道,“哪怕看不见实际的道路选择,Path Predication模块也会给出道路建议,而且准确度非常高。”类似功能在复杂路况和十字路口确实很管用,如果是Level-2可以提供给驾驶员以很大的驾驶选择方面的支持,如果是Level-3及以上,这个预测也是必须的。被训练好的预测模块会实时根据车载摄像头搜集到的信息,经预测模块算法计算之后,来判断前方的路到底怎么走。
在驾驶员有多个驾驶选择的时候(比如路口),这种预测也是很有帮助的,哪怕驾驶员有高精地图,依然需要预测模块去根据车辆的实际动态,来建议车辆应该如何在众多驾驶选择中,选取最有可能发生的那一条,并给出图形化的建议。
综上所述,特斯拉强烈倾向和依赖于视觉信息的获取和处理,还是很有说服力的。之后我们会谈到视觉信息和Lidar结构化数据信息之间的对比,敬请期待。
车右智能
info@co-driver.ai
备注:
1 题图来自于互联网搜索;
2 插图123皆来自于特斯拉自动驾驶开放日的公开宣讲资料。