对于主机厂和消费者来说,自动驾驶最应该被关注的依然是安全问题。
Toramon CEO刘䶮表示,目前市场上多款搭载L2级辅助驾驶系统的车辆,包括特斯拉的自动辅助驾驶系统仍然存在诸多安全隐患。
例如,2020年6月深圳一辆特斯拉Model 3在开启AutoPilot“自动辅助驾驶功能”时,对变道的、局部可见的大型货车毫无反应,径直撞了上去。
特斯拉2020年最新推出的全自动驾驶(FSD)中也存在频繁的识别失误,比如下面这些失误在FSD测试者上传的视频中普遍存在。虽然没有全部造成撞车事故,但如此高频的识别错误率还是不禁令人担心。

针对识别的这类痛点,目前主流的视觉方案都是通过AI+数据的技术改进模式。这对增加样本数量、提高安全性很重要,但由于长尾效应,即使在深度学习方面投入巨大,穷尽所有障碍物也是一件几乎不可完成的任务。
包括特斯拉遇到的这些识别失败在内的无数事实也证明,不管测试了多少亿英里,驾驶的过程中总会出现一些系统没有训练过的异形物体,比如摩托车后面驮满的各种形状的货物、从卡车上掉落的大木箱、皮卡拖着的游艇等。
这意味着,在现有技术路线下,未知场景直接威胁到驾驶安全。
而作为一家视觉技术领域的创新公司——Toramon科技(中译名为哆来目科技)从另一个视觉感知策略出发,过去五年一直专注于让汽车实现人类一样的判断,为现在主流的视觉方案对未知场景进行兜底。
什么是人眼仿生
从Toramon公开的实测视频中可以看到,其视觉系统可以检测到包括道路隔离墩、停在路边侵占车道的车辆以及沿各种方向移动的车辆和行人。
谁能料想到,如此先进的技术,所借鉴的理论竟来自上世纪70年代。
当年,美国一位名为大卫·李的博士在给空军心理研究室做研究的过程中,发现了人类在驾驶过程中,虽然并不能准确判断障碍物距,但却可以在驾驶的过程准确地做出刹车的判断,躲避障碍物。
原因是,人在遇到障碍物时进行刹车、转弯的决策过程来源于身体感知到的车辆与障碍物碰撞所消耗的时间长短。
即,人的防碰撞的机制是来源于直觉,直觉背后是人体更深层次的生理机制在发挥作用。为此大卫·李发表了论文,阐述了自己的观点和逻辑,在后续多年里得到了驾驶安全业内的广泛认可。
自动驾驶感知中,希望通过多种传感器,来感知车辆行驶的环境,模仿人类感官,以达到比肩甚至超越人类驾驶员的能力。但传统计算机视觉感知的原理并没有真正仿效人类驾驶员的视觉感知系统。
2013年, Toramon首席科学家在大卫李的理论基础上,延伸并发明了“人眼仿生的人工智能视觉技术”,模仿人眼对靠近物体的运动感知机理,用以识别物体的碰撞风险与碰撞时间。
该技术可通过摄像头实时进行图像采集,处理两帧及以上的图像复杂人工智能算法对图像中的运动信息进行处理,检测图像特征变化,分析图像中物体运动轨迹变化,进行碰撞预测,高效计算并预测碰撞时间与地点,实现自动防撞。
同时可以监测正向、 侧向以及横向碰撞危险,其运动感知的核心是物体膨胀-碰撞时间的算法,以及物体膨胀-碰撞点识别的算法。
最重要的是,这种人眼仿生识别技术并不局限于静止物体、已知或者未知障碍物,对所有可见障碍物都有效,也无需主流方案必备的深度学习神经网络。
人类在开车时多数无法判断与前车的准确距离。如果路上突然有一个东西朝车飞过来,我们本能的反应是避开它,而不是看清楚是什么,再刹车再打方向盘。因此人类视觉底层对碰撞的感知靠的是运动感知直觉,而不是测距和图像识别。
由此,Toramon将上述理论构思实践于自动驾驶中,通过人眼仿生,即用单目摄像头+运动分析,在嵌入式系统上直接得到碰撞时间TTC,由二维分析构建三维场景。
而同样是构建三维场景,以百度、Mobileye为代表的方案是采取AI+数据的方式,需要先将车辆间的距离测算出来,再配合自身的车速才可以计算出碰撞时间。
这就是为什么Mobileye需要强调自己可以测多远,精度是多少。因为这些数据对于它计算碰撞时间来说很重要。
而与百度等方案商在做的三维视觉方案不同,其构建的三维也并非XYZ时间距离轴,而是XYT。也就是将多数三维方案中使用的Z轴换为T轴,用来表示碰撞时间。无论从行为实验还是数学推导上,科学家都证明了该方法是完全可以实现的。
简单来说,Toramon的人眼仿生技术绕开了距离测量这一环节,通过摄像头进行实时图像采集,检测图像特征变化以及图像中物体运动轨迹的变化,进行碰撞预测,高效计算并预测碰撞时间与碰撞点,实现碰撞预警,绕过了测距就避免了经典图像识别中的长尾问题。
解决FCW难点
值得一提的是,人眼仿生技术的优势不仅限于此,其对摄像头的要求并不高,没有摄像头同步的难题,嵌入式系统上就可以实现,相应的功耗也小。
最关键的是可以在一定程度上解决传统计算机视觉中同时兼顾横纵向视野的经典难题。
以目前最难提升性能的前向碰撞预警(FCW)为例,由于透视的原因,较远一些的物体看起来都居于图像中心区域,如果没有车道线指引,很难区分前方物体是否在自身车辆的同一车道内。
目前众多的前向碰撞预警(FCW)方案都依赖车道线来剔除旁边车道上的物体可能造成的误报。该方案很大的局限就是,如果旁侧的车突然切入,或者在根本没有车道线的十字交叉路口遇到从其他方向驶来的车辆,系统则无法判断危险。
因此,车道线缺失的复杂场景对于自动驾驶系统来讲是一个非常大的难关,目前业内的对策是采用高精地图和激光雷达,但在落地方面依然困难重重。
但如果不能准确判断物体相对于自车的横向偏移量,那系统将不知道该物体会从自己身旁擦肩而过,还是会和自己相撞。
相对于目前的碰撞预警方案,Toramon的技术具有四大优势:
1)检测未知障碍物;
2)全方位碰撞预警(OCW)涵盖并超越了前向碰撞预警(FCW)的范围。OCW能检测到摄像头覆盖范围内的任何方向的碰撞危险,比如侧向加塞换道、横穿车辆、斜穿以及对面来车等;
3)识别车辆转弯时遇到的静止和移动障碍物等;
4)预防小重叠碰撞(small overlap),比如侵占部分车道的临时停车。
“仿生技术特殊在什么地方?大繁至简,用一个通用的办法实现了更广泛的碰撞预测包括未经训练的障碍物。还有一个特色,叫精准的碰撞点预测。” Toramon CEO 刘䶮强调,用我们的方案可以精确预测即将要撞到障碍物的哪个具体位置,而不是一个笼统的物体。
仿生技术解决了目前自动驾驶视觉感知方案面临的诸多难题,为未知障碍物等场景提供兜底解决方案。
目前,Toramon已成功开发出量产级别的车规级ADAS产品,产品质量得到了国家客车质量监督检验中心出具的检测认证报告。同时,产品已在重庆公交实际运营50万公里以上。
此外,该公司已与某国内知名主机厂以及某日系知名车企完成了装车验证,并有望用在明年的量产车型上。
在方案服务方面,Toramon不仅可以提供商用车视觉感知终端,还可以为商业伙伴以IP核的方式提供授权,加快产品的商业化落地。
公司CEO刘䶮表示,Toramon正在着力于为主机厂提供低成本的、主动安全量产方案。同时,根据客户“软件定义汽车”的新模式需求,希望为客户的域控制器提供独特的自动驾驶仿生视觉感知核心IP和软件模块以及深度学习融合方案。
最终目的就是大大提高环境感知能力,为未知场景以及复杂环境提供兜底视觉解决方案,从而提高车辆行驶安全性,减少碰撞几率。