這兩天,大家應該都有看到這個聊天記錄。網傳某新勢力車主在某高架路上開啟車輛的駕駛輔助功能,但在不專心駕駛沒注意前方路況及駕駛輔助功能沒有識別到前方靜止故障車輛的情況下,以80km/h時速徑直撞向前方故障車輛和檢查故障車輛的人員。
根據最新訊息,該被撞人員已不幸離世。故障車輛的另一名乘客事發時緊貼中央隔離帶,躲過一劫。另外,該碰撞也造成兩車不同程度受損,前車車尾完全潰縮,可見撞擊力度之大。
不管怎麼說,這都是一起十分不幸的事故。對於遇難者家屬來說,這怕是一件無法接受的事情,任何的安慰都顯得那麼蒼白無力。
|駕駛輔助並不是第一次出事
這並不是第一起濫用駕駛輔助功能而導致的事故。實際上,只要大家在搜尋網站上搜索“自動駕駛 事故”關鍵詞,就能搜到相當多的報道連結,包括在駕駛輔助領域走得比較早的小鵬、蔚來、理想等車企。
除了國內新勢力外,最初宣傳“自動駕駛”的特斯拉也未能倖免,華盛頓時間6月26日,美國安全監管機構釋出一項統計資料,全美十幾家車企報告了392起配備部分自動駕駛輔助系統的車輛碰撞事故,其中273起涉及特斯拉。雖然其它車企進行資料上傳時動作會比較慢甚至是瞞報,但這足以證明駕駛輔助並不是百分百安全。
|事故的原因是什麼
說回這次事件,在本次事故中,按照事故影片以及聊天記錄中“車主”自述,那後車駕駛員行駛中分神無疑是最大的原因,後車承擔全責幾乎是可以確定的事情,但是否承擔過失致人死亡之類的刑事責任要等警方來判斷。
但我想大家更想知道為什麼後車的駕駛輔助功能沒有“發現”前車並制動減速,筆者來說說個人推測的原因,希望能借此給大家提個醒,讓大家在駕駛過程中能夠規避此類情況。
(注:這部分內容並非小鵬官方調查後官宣的原因,而是筆者基於現有素材及的自身經驗,推測可能會實際原因有出入,僅供各位參考,也歡迎相關經驗/知識的小夥伴加入討論中。)
【事故發生前畫面】
先說結論:個人認為造成駕駛輔助系統無法識別前車原因可能就是感測器與駕駛輔助晶片的效能不足,導致在最基礎最重要的感知環節出了問題。具體理由,請繼續往下看。
首先,透過網傳影片我們可以獲得以下資訊:
- (1)事發道路為寧波市機場南路高架北行方向,路況良好。事發時間為8月10日下午2點48分,天氣良好,太陽方位角約為291°,正西偏北一點點,陽光強烈,能見度高。
- (2)在事故發生前,兩車之間並無其它車輛穿插,並且起碼有5秒以上反應時間,根據後車速度計算兩車距離起碼在100米以上。
- (3)事故即將發生到發生時,後車沒有制動跡象。
【小鵬XPilot 3.0感測器數量較多】
駕駛輔助作為小鵬的賣點之一,其功能是相當豐富,與本次事故相關的功能是AEB自動緊急制動、ACC自適應巡航這兩項功能。一般來說,駕駛輔助功能實現的流程是感知、決策、執行。感知就是車輛透過各種感測器感知路面環境,比如車道線、車輛位置、速度等資訊,這是實現駕駛輔助功能的大前提,也是個人感覺這次事故中出問題的地方——在這超過100米的行駛過程中,它沒有成功識別到前車及檢查前車的人員,導致車輛沒有進行任何制動操作。
根據網傳聊天記錄得知該車輛駕駛輔助硬體版本為XPILOT 2.5,與XPILOT 3.0硬體相比,無論是感測器數量還是晶片效能都有比較明顯的差距。在前向的感知元件部分,小鵬P7 XPILOT 2.5擁有單目攝像頭+一個毫米波雷達共2個感測器,而XPILOT 3.0則是擁有一組三目攝像頭+一個毫米波雷達的感測器組合,感知範圍更廣、更準確。
大家都知道多感測器資料融合可以來提高識別精準度,比如這次小鵬P7中的攝像頭+毫米波雷達,但這得建立在它們都能有效工作的前提下。
我們先說說毫米波雷達,毫米波雷達的工作方式是發射出去一個錐形的電磁波,在遇到物體後電磁波會被反射回來,一般來說與毫米波平行且較為平整的金屬板反射效果較好,但像塑膠、橡膠、織物等物體的反射效果比較差。透過計算回波的頻率和發射頻率之差,即可計算出目標物與本體之間的速度差。
另外,由於毫米波雷達對角度上的識別較差,空間解析度不夠高,所以毫米波雷達無法分辨某物體是在哪個高度上。比如前方有個高速路牌,它就只知道前方有一個物體,但無法知道這個物體是在車輛水平線上還是高於車輛水平線。為了駕駛體驗,一般情況下在資料預處理的時候就會將大多數靜止物體忽略掉。
而在這次事故中,由於故障車輛處於靜止狀態,並且人物站在車尾部分。所以這時候的毫米波雷達可能會出現兩種情況,第一:識別到了前方有物體,但因為是靜止物體,所以就直接忽略掉了;第二,由於金屬鈑金被遮擋,毫米波反射太少,導致無法識別到前方物體。不管哪種情況,毫米波雷達都不算是處於有效工作狀態下。
毫米波雷達對此場景失效,那視覺識別呢?不也是能夠承擔起識別前車的責任嗎?它的確能,但並不是所有場景都能!
這裡也分兩個可能性,其一是因為太陽照射角度剛好讓攝像頭產生炫光,影響目標物識別。其二是視覺識別也沒有識別出目標物出來。我們主要說說第二點,視覺包含的資訊量的確更大,雖然基礎上看到的是一片片顏色,但經過處理後可以識別出燈光、圖案圖形、材質、位置、距離等資訊。
而它的整個工作流程可以分為影象採集、影象預處理、影象特徵提取及之後的匹配和識別這三個步驟。以上方圖片為例(假設已經經過影象預處理),如果要識別車輛車尾這個物體的話,那可以透過一些特徵去匹配(比如說車尾一般是對稱的,截面形狀比較寬矮、兩側有紅色燈光、中央有藍色或者綠色的區域)然後識別出來。
在本次事故中,視覺識別這塊可能也會有兩個問題。兩車距離較遠時,由於前車在整個畫面中的佔比太小、影象經過壓縮,導致沒有足夠的畫面來提取特徵去匹配,此時系統可能處於一個完全沒識別的狀態。在兩車距離較近時,畫面大小足夠了,但由於人物站在車尾,用於識別行人和車尾的特徵相互遮蓋或者干擾,晶片效能不足導致無法單獨識別出車輛或行人出來。
感知失敗,系統自然無法做出有效決策,不減速直接向前撞則是一個必然事件了。
|有沒有改進辦法?
自然是有的,只需要根據上面提到的點進行改進就好。
比如,感知感測器效能不夠?那就換上更高規格的攝像頭來獲取更清晰更大的畫面,並且採用短距+中距+遠距攝像頭搭配,提高感知範圍。
除了現有的攝像頭、毫米波雷達外,還可以加入鐳射雷達。鐳射雷達除了可以識別目標物的距離外,還可以識別該物體是否與本體處在同一水平線上,這一點可以用來彌補毫米波雷達的劣勢,提高識別靜態物體的準確度。
至於因為感測器數量增加以及規格加強後帶來的額外的效能開銷,完全可以用更強的駕駛輔助晶片來應對,在加上更多的特徵點識別,完全可以做到更好的感知水平。
當然,最好的改進方法依舊是駕駛員把注意力放在駕駛上,透過駕駛員以及駕駛輔助功能的協同工作來提高駕駛安全的魯棒性。畢竟效能再強的駕駛輔助系統也可能會有失誤的時候,這時候駕駛員就是車輛安全的最後的保障。
總結:“懶”的確是科技進步的動力之一,但是在生命相關的領域我們並不能懶。駕駛輔助有它的優勢,但也有劣勢,不合理的利用有可能會帶來不可磨滅傷害。所以還是那句話,請各位駕駛員能夠專心駕駛,開開心心出門,平平安安回家。