这两天,大家应该都有看到这个聊天记录。网传某新势力车主在某高架路上开启车辆的驾驶辅助功能,但在不专心驾驶没注意前方路况及驾驶辅助功能没有识别到前方静止故障车辆的情况下,以80km/h时速径直撞向前方故障车辆和检查故障车辆的人员。
根据最新消息,该被撞人员已不幸离世。故障车辆的另一名乘客事发时紧贴中央隔离带,躲过一劫。另外,该碰撞也造成两车不同程度受损,前车车尾完全溃缩,可见撞击力度之大。
不管怎么说,这都是一起十分不幸的事故。对于遇难者家属来说,这怕是一件无法接受的事情,任何的安慰都显得那么苍白无力。
|驾驶辅助并不是第一次出事
这并不是第一起滥用驾驶辅助功能而导致的事故。实际上,只要大家在搜索网站上搜索“自动驾驶 事故”关键词,就能搜到相当多的报道链接,包括在驾驶辅助领域走得比较早的小鹏、蔚来、理想等车企。
除了国内新势力外,最初宣传“自动驾驶”的特斯拉也未能幸免,华盛顿时间6月26日,美国安全监管机构发布一项统计数据,全美十几家车企报告了392起配备部分自动驾驶辅助系统的车辆碰撞事故,其中273起涉及特斯拉。虽然其它车企进行数据上传时动作会比较慢甚至是瞒报,但这足以证明驾驶辅助并不是百分百安全。
|事故的原因是什么
说回这次事件,在本次事故中,按照事故视频以及聊天记录中“车主”自述,那后车驾驶员行驶中分神无疑是最大的原因,后车承担全责几乎是可以确定的事情,但是否承担过失致人死亡之类的刑事责任要等警方来判断。
但我想大家更想知道为什么后车的驾驶辅助功能没有“发现”前车并制动减速,笔者来说说个人推测的原因,希望能借此给大家提个醒,让大家在驾驶过程中能够规避此类情况。
(注:这部分内容并非小鹏官方调查后官宣的原因,而是笔者基于现有素材及的自身经验,推测可能会实际原因有出入,仅供各位参考,也欢迎相关经验/知识的小伙伴加入讨论中。)
【事故发生前画面】
先说结论:个人认为造成驾驶辅助系统无法识别前车原因可能就是传感器与驾驶辅助芯片的性能不足,导致在最基础最重要的感知环节出了问题。具体理由,请继续往下看。
首先,通过网传视频我们可以获得以下信息:
- (1)事发道路为宁波市机场南路高架北行方向,路况良好。事发时间为8月10日下午2点48分,天气良好,太阳方位角约为291°,正西偏北一点点,阳光强烈,能见度高。
- (2)在事故发生前,两车之间并无其它车辆穿插,并且起码有5秒以上反应时间,根据后车速度计算两车距离起码在100米以上。
- (3)事故即将发生到发生时,后车没有制动迹象。
【小鹏XPilot 3.0传感器数量较多】
驾驶辅助作为小鹏的卖点之一,其功能是相当丰富,与本次事故相关的功能是AEB自动紧急制动、ACC自适应巡航这两项功能。一般来说,驾驶辅助功能实现的流程是感知、决策、执行。感知就是车辆通过各种传感器感知路面环境,比如车道线、车辆位置、速度等信息,这是实现驾驶辅助功能的大前提,也是个人感觉这次事故中出问题的地方——在这超过100米的行驶过程中,它没有成功识别到前车及检查前车的人员,导致车辆没有进行任何制动操作。
根据网传聊天记录得知该车辆驾驶辅助硬件版本为XPILOT 2.5,与XPILOT 3.0硬件相比,无论是传感器数量还是芯片性能都有比较明显的差距。在前向的感知元件部分,小鹏P7 XPILOT 2.5拥有单目摄像头+一个毫米波雷达共2个传感器,而XPILOT 3.0则是拥有一组三目摄像头+一个毫米波雷达的传感器组合,感知范围更广、更准确。
大家都知道多传感器数据融合可以来提高识别精准度,比如这次小鹏P7中的摄像头+毫米波雷达,但这得建立在它们都能有效工作的前提下。
我们先说说毫米波雷达,毫米波雷达的工作方式是发射出去一个锥形的电磁波,在遇到物体后电磁波会被反射回来,一般来说与毫米波平行且较为平整的金属板反射效果较好,但像塑料、橡胶、织物等物体的反射效果比较差。通过计算回波的频率和发射频率之差,即可计算出目标物与本体之间的速度差。
另外,由于毫米波雷达对角度上的识别较差,空间分辨率不够高,所以毫米波雷达无法分辨某物体是在哪个高度上。比如前方有个高速路牌,它就只知道前方有一个物体,但无法知道这个物体是在车辆水平线上还是高于车辆水平线。为了驾驶体验,一般情况下在数据预处理的时候就会将大多数静止物体忽略掉。
而在这次事故中,由于故障车辆处于静止状态,并且人物站在车尾部分。所以这时候的毫米波雷达可能会出现两种情况,第一:识别到了前方有物体,但因为是静止物体,所以就直接忽略掉了;第二,由于金属钣金被遮挡,毫米波反射太少,导致无法识别到前方物体。不管哪种情况,毫米波雷达都不算是处于有效工作状态下。
毫米波雷达对此场景失效,那视觉识别呢?不也是能够承担起识别前车的责任吗?它的确能,但并不是所有场景都能!
这里也分两个可能性,其一是因为太阳照射角度刚好让摄像头产生炫光,影响目标物识别。其二是视觉识别也没有识别出目标物出来。我们主要说说第二点,视觉包含的信息量的确更大,虽然基础上看到的是一片片颜色,但经过处理后可以识别出灯光、图案图形、材质、位置、距离等信息。
而它的整个工作流程可以分为图像采集、图像预处理、图像特征提取及之后的匹配和识别这三个步骤。以上方图片为例(假设已经经过图像预处理),如果要识别车辆车尾这个物体的话,那可以通过一些特征去匹配(比如说车尾一般是对称的,截面形状比较宽矮、两侧有红色灯光、中央有蓝色或者绿色的区域)然后识别出来。
在本次事故中,视觉识别这块可能也会有两个问题。两车距离较远时,由于前车在整个画面中的占比太小、图像经过压缩,导致没有足够的画面来提取特征去匹配,此时系统可能处于一个完全没识别的状态。在两车距离较近时,画面大小足够了,但由于人物站在车尾,用于识别行人和车尾的特征相互遮盖或者干扰,芯片性能不足导致无法单独识别出车辆或行人出来。
感知失败,系统自然无法做出有效决策,不减速直接向前撞则是一个必然事件了。
|有没有改进办法?
自然是有的,只需要根据上面提到的点进行改进就好。
比如,感知传感器性能不够?那就换上更高规格的摄像头来获取更清晰更大的画面,并且采用短距+中距+远距摄像头搭配,提高感知范围。
除了现有的摄像头、毫米波雷达外,还可以加入激光雷达。激光雷达除了可以识别目标物的距离外,还可以识别该物体是否与本体处在同一水平线上,这一点可以用来弥补毫米波雷达的劣势,提高识别静态物体的准确度。
至于因为传感器数量增加以及规格加强后带来的额外的性能开销,完全可以用更强的驾驶辅助芯片来应对,在加上更多的特征点识别,完全可以做到更好的感知水平。
当然,最好的改进方法依旧是驾驶员把注意力放在驾驶上,通过驾驶员以及驾驶辅助功能的协同工作来提高驾驶安全的鲁棒性。毕竟性能再强的驾驶辅助系统也可能会有失误的时候,这时候驾驶员就是车辆安全的最后的保障。
总结:“懒”的确是科技进步的动力之一,但是在生命相关的领域我们并不能懒。驾驶辅助有它的优势,但也有劣势,不合理的利用有可能会带来不可磨灭伤害。所以还是那句话,请各位驾驶员能够专心驾驶,开开心心出门,平平安安回家。