四次事故兩死兩傷,特斯拉為啥總是撞上白色卡車?
編者按:本文來自微信公眾號“車東西”(ID:chedongxi),作者:曉寒,編輯:肖涵 ,36氪經授權發佈。
特斯拉又出事故了!
據外媒報道,就在幾天前,美國底特律一台白色Model Y在一個T字路口正面撞上了一台大型卡車。Model Y車頭較低,其直接鑽進了卡車底部車輛嚴重損毀。
事故發生在當地時間凌晨3:20分左右,事發時車內一男一女兩名乘客嚴重受傷,並被送往當地醫院救治,卡車司機則並未受傷。
▲近日特斯拉在底特律撞上白色卡車
2016年和2019年,特斯拉在美國出現過兩次致命事故。都是在打開L2級自動駕駛系統的同時,車輛以垂直方向撞上了大型卡車,最終導致車內人員喪生。
2020年,台灣一台Model 3在高速上也撞上了一台側翻的卡車。
▲2019年特斯拉事故車輛,駕駛員不幸喪生
▲2020年事故現場監控畫面
這三起事故有很高的相似性,因此特斯拉再次發生類似事故後,也引起了強烈關注,同時又在不斷提出一個靈魂問題:
為什麼被稱為量產車最強的L2級自動駕駛系統,卻總是躲不開一台白色卡車?
答案其實並非是特斯拉技術不強,也根本不是白色卡車就是特斯拉的“天敵”。
而是因為對靜態車輛的檢測,屬於當下以“攝像頭+毫米波雷達”作為主傳感器的L2級自動駕駛方案的一個世界性難題,各家的系統對靜止車輛都很頭疼。
比如今年2月份,一台蔚來ES8在開啓L2級自動駕駛系統巡航時,先後撞了一個行人和一台靜止的五菱宏光。(可參考文章《蔚來ES8開L2撞人又撞車,為啥裝24個傳感器都躲不開?》)
01. 尚未確認特斯拉是否開啓了L2正如前文所言,這起事故之所以收到了中外一些媒體的關注,核心是因為特斯拉的車型曾經出現過開L2撞卡車,並致駕駛員喪生的嚴重事故。
但從目前外媒的報道和推特上知情網友的消息來看,目前尚無法確認事故發生時車輛是否開啓了L2級自動駕駛系統。
▲事故現場
因此這起事故的原因並非與特斯拉L2級自動駕駛系統有關。
當然,即使是2016年和2019年的兩起致命撞卡車事故,從責任劃分上來説也是駕駛員的問題。
▲2016年類似事故現場
因為特斯拉的Autopilot系統屬於L2級自動駕駛,一是隻能在有限的場景下工作,二是需要駕駛員全程監控路況並隨時準備接管。
比如垂直方向有大型卡車時,就屬於系統不工作的場景,需要駕駛員及時接管車輛。
去年3月23日,美國國家運輸安全委員會(NTSB)針對兩起特斯拉Autopilot L2級自動駕駛系統致人死亡的事件發佈了最終報告。報告表明,兩起事故當中,駕駛員都過度依賴特斯拉L2級自動駕駛功能,從而出現注意力不集中的現象,最終導致事故發生。
▲NTSB在其網站上的發佈了最終調查報告
NTSB認為,卡車駕駛員在路口沒有停車,直接左轉駛入高速公路,屬於危險駕駛行為。特斯拉Model 3駕駛員過度依賴特斯拉L2級自動駕駛技術,導致注意力不集中。NTSB最終認定,事故原因是特斯拉Autopilot L2級自動駕駛系統在駕駛員脱手時沒有及時提醒,與設計使用條件不一致,最終導致發生碰撞事故。
其中一起事故,就是2019年3月1日出現的Model 3撞上卡車致使駕駛員死亡的事故。
就算沒有開啓L2,那特斯拉的AEB自動緊急制動系統為什麼也失靈了呢?
特斯拉的AEB系統可以手動關閉,因此如果駕駛員當時關閉了AEB,那麼系統自然就不會工作了。
02. 事故可能性分析 傳感器配置要背鍋從美國監管機構的報告可以看出,垂直方向撞卡車的事故,明顯是超過了特斯拉L2系統的工作範圍,又加上駕駛員沒有及時接管所造成的。
那麼問題來了,為什麼被公認為“量產車最強L2”的Autopilot系統,就是躲不開一輛活生生的大卡車呢?
與車東西此前報道蔚來ES8事故的結論一致:這起事故的根本原因是“攝像頭+毫米波雷達”的傳感器配置,很難識別靜止車輛或緩行車輛。
與Model 3一樣,特斯拉Model Y周身搭載了8個攝像頭,1個大陸的毫米波雷達,和12個超聲波雷達。
▲特斯拉傳感器配置
在開啓L2級自動駕駛系統(Autopilot、NOA或EAP系統)時,車輛主要依靠前視攝像頭和毫米波雷達探測前方物體。
特斯拉雖然是三目前視攝像頭,但並沒有使用立體視覺,三個攝像頭主要是焦距不同,看的視野範圍不同。
所以總的來説,特斯拉與目前絕大部分L2級自動駕駛系統都一樣,都是視覺+毫米波雷達的傳感器方案。
不管是使用基於規則的視覺算法還是使用深度學習技術,視覺在感知外界物體時永遠做不到100%準確,甚至經常會出錯。
比如筆者自己的特斯拉在出地庫時,就會莫名把牆壁識別為公交車。又比如最近很火的一個抖音視頻中,特斯拉在空無一人的墓地,就莫名識別出了行人。
▲特斯拉在無人墓地識別出行人
此外,還出現過把公交車身上的人物照片識別為行人、把路邊廣告屏幕上的停車標誌識別為真實停車標誌的案例。
而靠反射毫米波來探測目標的雷達不會“見鬼”,前方有東西就有回波,沒有東西就沒有回波。
正是因為視覺出錯概率很高,雷達更“靠譜”,因此大部分L2系統會在視覺的基礎上再引入毫米波雷達的探測結果進行驗證。
如果攝像頭髮現前方有車輛,雷達也確認了前車的位置和速度,就可以做出剎車的動作。
如果用這些誤識別的結果來做駕駛決策,顯然會出現更多的問題。特斯拉自然知道這一點,因此在實際中並不會對純視覺的感知結果進行反應。
所以這起事故的原因就很明確了,不管視覺有沒有識別到前車,一定是毫米波雷達沒有給出結果,所以最終系統沒有反應。
03. 毫米波雷達天生缺陷 害怕靜止車輛毫米波雷達即然不會“見鬼”,那麼為啥會識別不到前方的卡車呢?
東南大學國家毫米波重點實驗室毫米雷達技術專家、毫米波雷達公司隼眼科技CTO張慧多次向車東西分析了背後的原因。
從最底層的工作原理來説,毫米波雷達主要是依靠多普勒效應來感知移動目標。多普勒效應的特性是,動態對動態最容易感知、動態對靜態較難感知、靜態對靜態極難感知。
這是因為如果前方車輛靜止,目標信息容易和地雜波等摻雜在一起,需要一定的算法才能從中分辨出目標。而如果是一個行駛中的汽車,基於其多普勒信息,從而比較好探測到目標。
所以如果卡車靜止或者移動速度很慢,雷達的算法就無法知道前方有物體。
但這種可能性並不大,因為各大雷達公司已經做出了一些感知算法,可以識別靜態物體。
真正的難點是,現在的雷達沒有高度信息,並且空間分辨率不足。
沒有高度信息,意味着雷達很難區分橫穿馬路的路牌和橋下的車;空間分辨率不足,意味着兩個距離很近的物體,其回波會被混在一起,很難知道有幾個目標。
所以雷達公司和一些車企在拿到雷達的反射數據後,會通過算法直接將一些靜止物體,或者疑似靜止的物體過濾掉,以避免產生錯誤的反應。
比如本次事故場景中,因為卡車是垂直Model Y方向行駛,如果同時行駛速度又很慢的話,因為缺乏徑向多普勒分量,雷達的識別算法很容易將其當成靜態目標過濾掉了。
如果毫米波雷達把目標過濾掉了,所以不管視覺能否看到這台卡車,都不起用了。
04. 結語:車企仍在不斷優化L2級自動駕駛回到這起事故,特斯拉當時是否開啓了自動駕駛系統還沒有確定,事故原因還需要等待當地警方和特斯拉官方調查。實際上,即便開啓了L2級自動駕駛系統,白色卡車這一場景也有些極端。對目前量產L2級自動駕駛系統來説,還有不少場景無法處理。
針對L2級自動駕駛系統存在的種種問題,車企也給出了自己的解決方案。一方面,自動駕駛算法不斷優化,通過“影子模式”、上路測試等方法,讓自動駕駛系統不斷成熟,同時不斷增加L2級自動駕駛的功能。另一方面,隨着硬件成本的下降,不少車型已經規劃搭載激光雷達,避免類似事故發生。