接上一期。Karpathy在ScaledML2020会议上的主题演讲专题>>
上期我们讲到了对于十字路口的识别,往往因为地形复杂,分支路口众多,客观上在技术实现上就比较难。如果再考虑到Tesla车辆的摄像头安装高度有限,按照我们平时的经验,可能最高的位置就是前向摄像头(驾驶舱中间头部位置),因此视觉上死角区域比较大,会影响对于路口形状的识别精确度。特别是远处位置。
但是按照Karpathy在会议上的展示,Autopilot还是做得不错的。如下图:
上图中,顶部图像为Tesla车载摄像头的实际拍摄效果,分为左前、中和右前三个摄像头。第二排是对于视觉信息的数字处理和BEV视觉转化。从最左侧的图型开始,可以看到红色为马路边界,绿色为道路分割线,可以观测即便车辆处于路口位置的静止状态,整个路口的数字化识别、语义识别和BEV俯视图构建,都是比较精准的,用以提供车辆安全穿越路口是没问题的。
第二排的右侧三幅图,根据图幅信息推测应该是车流量信息,或者可驾驶区域信息的展示,不做深究。
在上图这幅图中,Tesla车辆开始从静止开始起步执行右转,虽然车速不快,但是可以明确看到BEV视图的旋转是同步的。
当车辆完全转过来的时候,可以看到对于道路BEV视图的覆盖半径还是相当可观的。需要关注的是,读者需要区别这个对于道路形状和可行驶区域的识别,不等同于对于道路上障碍物(车辆、人员和动物)的识别半径。后者是避障算法所需要,而且也不仅仅依赖视觉信息,在更长的距离上,毫米波雷达可以提供更远的障碍物识别和判定。
再次回到Smart Summon这个应用上来看,在停车场内的实际测试表明,Tesla可以做到如下效果:
在停车场内的非正式道路上行驶,对于道路尽可能全面的感知是个重要的话题,也是涉及到Smart Summon这个应用是否成立的先决条件。因为绝大多数停车场内并没有现成地图标识的,高精地图就更谈不上了;退一步讲就算有地图,也极有可能根据车辆多少而内部通行道路有所变化。因此在车辆上维护一套即时感知体系和能力是非常必要的。
上图中显示,在车辆处于Smart Summon召唤过程中,车辆可以大范围感知自己周边的道路状态,包括道路本身和路口,甚至包含通行方向(如果停车场有相关标识)。这是Smart Summon高效率实现的保障。小编在Smart Summon国外部署的早期,曾经看到过Tesla车主吐槽自己的车辆走入死胡同而无法到达车主的占位,而不得不倒车从头再来……估计建立在BEV基础上的Smart summon应该表现得会更好一些。
在缺乏先验地图信息的停车场,Tesla的Autopilot能力应该是得到放大的,因为目前看,绝大多数的自动驾驶依赖Lidar和高精地图,而不难理解,在停车场这个特定的环境内,Lidar显然没有视觉信息更全面能理解复杂的道路状态和信息;而从不依赖高精地图的Tesla,应该是有更大的适用范围和深度。尤其是Smart Summon上线之后,被高频次使用,这个数据量获取,后天也会对Tesla的这种局部低速全自动导航/路径规划,起到关键的训练和修正作用。
一家之言,欢迎讨论。下期我们继续讨论Autopilot的技术现状。
车右智能
info@co-driver.ai
备注:
1 题图1/2/3来自于Karpathy在ScaledML会议上的演讲“AI for Auto-Driving”,https://www.youtube.com/watch?v=hx7BXih7zx8&t=1240s;
2 题图来自互联网。
相关专题:
特斯拉Autopilot机制的最新介绍 ——Karpathy在ScaledML2020会议上的主题演讲 (1)
特斯拉Autopilot机制的最新介绍 ——Karpathy在ScaledML2020会议上的主题演讲 (2)
特斯拉Autopilot机制的最新介绍 ——Karpathy在ScaledML2020会议上的主题演讲 (3)
特斯拉Autopilot机制的最新介绍 ——Karpathy在ScaledML2020会议上的主题演讲 (4)
特斯拉Autopilot机制的最新介绍 ——Karpathy在ScaledML2020会议上的主题演讲 (5)