小鵬撞完特斯拉撞,特斯拉撞完理想撞,上週對於新勢力們來説,可謂是黑色一週,智能駕駛的安全性問題再一次被提到了風口浪尖,科技一定是要以安全為底線的。
其實我們從上週的這幾起新勢力們有代表性的事故中,不難發現,一個老生常談的話題——靜態物體的識別問題,那麼為什麼到了2022年下半年,這個問題依然改觀不大?背後有哪些行業上的痛點?
2022年8月了,靜態識別還沒有長進?首先我們來看看發生事故的這幾輛車,小鵬P7、特斯拉Model Y和2021款理想ONE,它們的智能駕駛感知系統都是以視覺為主導的,也就是其他比如毫米波雷達、超聲波雷達系統都是用作輔助的,並且它們都沒有搭載激光雷達。
其實目前主流的智能駕駛系統的工作邏輯和我們人類駕駛比較類似,通過視覺途徑來感知周圍的物體,利用中央計算平台完成數據處理,而後再像各個工作模塊發出指令,而目前整套智能駕駛系統的處理速度,反應速度或者感知能力甚至會強於人類,面對大部分情況,幾乎沒有延遲就可以處理好。
但咱們這裏強調的是大部分情況,而靜止物體就是那少部分情況中的一種。
視覺感知,竟然會“擺爛”?那麼第一個就要從視覺層面入手,為什麼高速快速路上的靜止物體會成為系統不認識的物體?攝像頭是可以認得出這裏有個東西的,但是它和我們人類的邏輯不同,系統的眼睛在處理場景時對物體的感知和分類或者説是辨別,是協同工作的,如果眼睛看到的一個東西,但辨別不出物體,系統可能就會則會默認過濾掉這個信息,説直白些就是既然不認識,那就等於不存在,直接擺爛。
我們看到的特種車輛、不同樣式的工作車或者改裝車等等,視覺感知如果無法做到準確的識感知和分類,來不及處理勢必帶來危險。在高速上,智能駕駛的感知算法可能感知到前方的靜止物體,但跟蹤算法可能無法做到,這也可能導致在遇到靜止物體時,整個傳感器的計算無法做到瞬時收斂,然後它就躺平了。
這一點依然是個行業內的重難點,因為任何車企或者公司都無法做到,能讓系統認清楚自己看到的每一個物體,所以它們只好把看到的物體,通過不斷訓練的神經網絡,來完成數據標註、分類、定義,給這類物體賦予一個標籤,這種分類方式可以極大程度的讓系統能夠在現有條件下儘可能多的認識物體,但依然確保十全十美。就像智己L7智能駕駛的開發者,為了讓智己L7認清楚各種大貨車,已經讓系統自學習了上萬種大貨車的樣貌,但這依然很難做到萬無一失,總有一些漏網之魚,而這些漏網之魚就是智能駕駛發展過程中的攔路虎。
當然,車企們也鼓勵用户們在日常駕駛中多用自家的智能駕駛功能,因為這樣可以多獲取一些用户數據,讓車輛多學習,特斯拉使用的這種方式,其他新勢力們也直接照搬了過來,畢竟數據越多,學得越多,犯錯應該會變得更少。
毫米波雷達其實很無辜?問題不在它?就算視覺感知系統認不出來,不是還有毫米波雷達呢嗎?它對距離、物體的大概輪廓不都應該很清楚麼?
正常來説,理想狀態下應該是這樣,可是現實中它並不太理想,毫米波雷達對於物體的識別確實是很準的,但是就是因為很準,也遭到了大家的抱怨。
毫米波雷達通過發射電磁波,利用發射毫米波以及接受反射回來的信號,利用回波圖像的強度來判斷以此來計算目標物的相對速度信息、距離等信息。類似於我們人類閉着眼,光靠耳朵聽,旁邊車輛過去的聲音,也能大概知道車輛的速度以及離我們的大概距離,但毫米波雷達是能夠識別出靜止物體的,它可以呈現出一幅點雲信息。
但是,毫米波雷達本身缺乏高度信息以及對金屬敏感性,這只是一部分缺點,當然目前出現的4D成像毫米波雷達是可以彌補這方面問題的,而毫米波雷達不能識別靜止物體的問題,其實更多的是我們人為造成的,因為基礎的毫米波雷達只能顯示出點雲圖,無法完全識別出它到底感知到的是個什麼東西,也就導致路面上大量的靜止物體,都有可能觸發它的過度反應,從而出現幽靈剎車的情況。
試想一下,路面上的廣告牌、橋樑橋墩、高架、燈架、監控設備支架、信號燈等物體傳輸來的信號動作都有可能被視為障礙物,而我們的實際路面上這些物體又是出奇的多,那麼這樣的靈敏感知會導致這車就不用開了。所以毫米波雷達本身會對行駛道路中反射回來的靜止物體做濾除,也就是靜態雜波過濾,它把速度為零的信號基本上都抹去。
本身對於金屬物體的感知就比較弱,同時速度信號為零的基本上都不感知,那麼碰撞真的會在所難免。當攝像頭不認識,導致無法識別,直接“擺爛”,同時毫米波雷達對於這些物體直接罷工,智能駕駛系統就真的只能讓車撞上去了嗎?不是還有AEB系統嗎?
主動安全系統可能一點也不主動?AEB系統算法大部分通過雷達以及攝像頭等來做碰撞風險監測以及協助做主動制動,當系統並不識別前方物體的時候,AEB會幫得上忙麼?
相信大家或多或少的看過一些媒體做的AEB方面的測試,我們在這其中不難看出,大部分車輛在對動態假車的測試中,都能做到很高的速度值,但是一到靜態幾乎全軍覆沒,甚至看到一些比較奇怪的景象,比如系統確實是介入了,剎車了,但是最後快撞上之前自己懈勁兒了。對於城區以及高速環境下,AEB系統的敏感度也不同。
AEB確切的來説,它是作為一種減輕撞擊的輔助安全系統。從蔚來官方來看,工作範圍是在 8km/h—85km/h之間;在自動緊急制動被觸發後,車速最多會降低 40km/h來減緩碰撞的可能,隨後就會釋放制動器,也就是懈勁兒了,而特斯拉也很類似,一些傳統合資品牌和豪華品牌也都類似,因為它們採用的大部分都是博世、安波福的成熟方案,硬件軟件也都來自它們,所以問題點都是幾乎極其相似的。
AEB系統也有很多為了防止誤觸發的限制,和智能駕駛中的誤觸發類似,都是為了防止幽靈剎車,防止主動安全配置幫倒忙,所以AEB並不是完全靠得住的,智能駕駛系統無反應,它也基本上會表現出類似的舉動。
其實看到這裏,你會發現我們在當前硬件基礎的條件下,能做出更多努力的方向,依然是在視覺感知方面,讓視覺感知系統能夠學習更多,當然視覺方面也要為了防止幽靈剎車,而做出一些“取捨”,類似於毫米波雷達。
激光雷達是救星?還真不見得那麼靜止物體真的會一直扼住自動駕駛咽喉嗎?問題一定是會被解決的,激光雷達的大規模上車,就可以在一定程度上解決這方面的問題,雖然同是雷達,但是激光雷達的感知距離、成像點雲密度、空間感知方面是遠在毫米波雷達之上的。
高密度的點雲甚至不需要視覺,就直接能讓我們看明白前方的路況,高分辨率的激光雷達配合上類似於訓練視覺算法的模型,也可以讓系統清晰感知前方狀況,但依然不能萬無一失,毫米波雷達被人為控制的部分,激光雷達也要被控制,這一點彷彿又進入了死衚衕,但已經離攻克無法靜態物體識別問題更進一步了。
這可能是最接近正解的方案,可惜它貴我認為要想完全克服掉靜態識別問題,還是需要強大的V2X車路協同系統,基於V2X的智能輔助駕駛將會讓車輛提前感知前方路況,留出充足的反應時間,這是一個需要汽車廠商、通信廠商、交通環境建設者以及監管機構等各方一起參與的局,需要共同打造一個協同式的智能交通系統,基礎設施的投入才是車路協同技術實現的基礎,當然這些基礎設施我認為是可以一勞永逸的,值得投入。
當然你會説城市裏佈置車路協同系統,尚且已經很困難,那麼荒郊野外,偏遠地區的國道,鄉道縣道該怎麼辦呢?所以這也就需要車對車的車路協同系統,其實看下來,車企需要付出的是安裝車路協同模塊,而政府需要完善基礎設施建設,城市中部署車路協同的接發裝置,而在其他地區要完善5G信號的全覆蓋。
其實,目前的蔚來新一代車型上,也都預留了車路協同模塊,奧迪也有所跟進部署,福特在這方面走得更快、更早,可見車路協同系統也確實是今後實現高階自動駕駛的一個必要條件,不但可以幾乎完全掃清靜態物體識別方面的問題,同時也會讓智能駕駛系統更完善。
總結最後,我們要説的是,車企確實需要不斷完善自身的智能駕駛系統,在現有條件下做到最好。同時在宣傳方面,這個宣傳的度一定要被監管了,因為現在還是L2時代,就算車企宣傳再怎麼天花亂墜,只要出事故,駕駛者永遠是第一責任人,消費者不能一直吃啞巴虧。讓駕駛者也要明白,輔助駕駛不是自動駕駛,開車切勿開小差,要全神貫注,生命只有一次,不能用生命來迫使車企們去改一行代碼。