那麼醒目的橫躺大貨車,只有Model 3不減速撞上去

SpaceX 載人發射剛成功,馬斯克儼然人類希望。

但剛剛發生的這起事故,又讓不少網友驚掉了下巴:

馬斯克了不起,但特斯拉的 AutoPilot,也實在辣雞到扶不起。

這不,開啓 AutoPilot 的特斯拉,又撞了。

還是在一個所有人都能清晰看到的側翻大貨車事故車道,特斯拉 Model 3,幾乎毫不減速地撞了上去。

事情發生在台灣。上午 6 點 44,光線條件算不上極端,高速路上,一輛貨車側翻在地,後續來車紛紛避讓。

但當監控鏡頭裏出現了一輛白色特斯拉 Model 3,畫風就變得詭異了起來——

這輛行駛在快車道上的 Model 3,以 110 公里的時速,直直撞向瞭如此明顯的貨車障礙物!

一陣白煙,Model 3 的車頭整個都扎進了貨車車廂裏。

網友們都驚呆了:這麼明顯的障礙物,竟然完全不帶減速的嗎?!

事故為什麼發生?依然 AutoPilot

所幸,事故沒有造成人員傷亡。

但如此離奇的特斯拉事故,老司機一看都猜測——又是 AutoPilot 的鍋。

果然,警方調查證實了這一點。

據 CNA 報道,特斯拉車主向警方表示,事故發生時,車輛處於 AutoPilot 開啓狀態,時速定速在 110 公里。

他本以為,特斯拉偵測到障礙物會自動剎車。

而且從視頻來看,他似乎完全放心地把車輛的控制權,交給了特斯拉的高級輔助駕駛系統。

所以當他發現前方有障礙物,Model 3 卻完全沒有減速……等他想要接管——緊急踩下剎車時,事故已經沒法兒避免。

貨車司機還向警方解釋稱,當時他在分隔島等待救援,看到特斯拉快速駛來,還試圖揮手示意,讓司機減速避讓。

但特斯拉毫無反應,“嘣”地就扎進了貨車車身。

特斯拉車主全責?

還沒明確結果,但事故認定大概率如此。

因為有“前車之鑑”。

去年 5 月,美國國家交通安全委員會曾對一起特斯拉事故案披露了調查結果。

也是一起車主開啓 AutoPilot 狀態遭遇的車禍,不同的是車主直接在事故中喪生。

但最終在調查和特斯拉的官方説明中,給出的結論讓外界“無話可説”:

車主對 AutoPilot 使用不當。

特斯拉官方還補充説:特斯拉所有的司機在使用 AutoPilot 系統的情況下行駛了超過 10 億英里,我們的數據顯示,如果一位細心的司機使用得當,如果他隨時準備控制局面,那麼由自動駕駛系統支持的司機比那些沒有幫助的司機更安全。

言外之意:使用 AutoPilot 的時候,車主要保持高度專注。

AutoPilot 很安全,出了車禍都是車主沒有按要求“保持高度專注”造成的。

所以特斯拉真就絲毫沒有責任?

當時外媒《連線》就直接質問特斯拉了:為啥一輛大卡車橫在前面,AutoPilot 的系統“看不見”?

更滑稽的是,在特斯拉的 AutoPilot 和“全自動駕駛”方案中,一直宣稱使用視覺為主的方案就足夠安全。

然而事實並非如此。

包含台灣這起 Model 3 的事故在內,特斯拉的車禍事故,宛如出自一個模子。

2018 年 3 月,在美國加州山景城發生的一起致命事故中,特斯拉表示,車輛日誌顯示,司機收到了需將手放在方向盤上的警告,但司機在事故發生前沒有采取任何行動。事故發生時,這輛 Model X 車處於自動駕駛模式。

2016 年 5 月,一名特斯拉 Model S 司機在佛羅里達州威利斯頓附近被撞死,當時他啓動了自動駕駛系統,車輛撞上了一輛拖拉機拖車,電動車車頂被掀開。

更早之前,被稱為特斯拉首例死亡車禍的事故中,也是 AutoPilot 狀態下的特斯拉,沒有識別白色外觀的大卡車,於是不減速撞擊, 車毀人亡。

但即便如此,馬斯克為了節省成本,始終堅持不用激光雷達,不搞多傳感器冗餘。

甚至還明確放話:視覺方案已經足夠安全,用激光雷達的自動駕駛方案都是大傻X。

激進的特斯拉自動駕駛策略

一直以來,馬斯克和特斯拉,就是自動駕駛實踐中最激進的玩家。

之前為了突出賣點,很長一段時間裏,特斯拉都是把 AutoPilot——高級輔助駕駛系統,當成“自動駕駛”來對外宣傳的。

後來事故頻發,輿論譴責“宣傳誤導”,這才改口並明確:Autopilot 自動輔助駕駛功能需要駕駛員進行主動監控。

另外,也有外界猜測,其實對 AutoPilot 的改口,只是因為 FSD——完全自動駕駛方案對外發布了。

然而即便在專門計算硬件 FSD 加持的完全自動駕駛方案裏,傳感器方案卻沒有變。

依然堅持攝像頭 超聲波傳感器為主。

馬斯克還聲稱,這套方案足夠實現“完全自動駕駛”:

“完全的意思是,汽車能夠從家中開車去工作,在途中幾乎不需要駕駛員操作。”

目前,特斯拉也確實在自動駕駛能力上,提供了量產的體驗,比如自主泊車、主動召喚、環路和高速上的車道保持和定速,甚至還有自主變道等能力……很多特斯拉車主,也樂於秀出各種場景下的表現。

只是那些出事的“小白鼠”,卻再也沒有機會發聲了。

因為 AutoPilot 和 FSD 代表的自動駕駛落地路線,本身就有根植於人性的悖論。

特斯拉的小白鼠們

自動駕駛分級中,共分 5 級,級別越高,人類參與駕駛的程度就越低。

特斯拉的 AutoPilot,雖然特斯拉長期以“自動駕駛”對外宣傳,但業界始終認為處於 L2-L3 之間,屬於高級輔助駕駛。

這種高級輔助駕駛可以幫助人類提升駕駛體驗,但依然需要人類在駕駛中處於主導地位。

矛盾之處也正是如此。

一方面,AutoPilot 可以代人在一些場景下駕駛,但另一方面又要求司機在緊急情況下接管汽車。

這就要求一個長時間放鬆的人,必須還要時刻專注在車程中。

換一個更多人有過的經驗,上課允許走神,但只要老師點名提問,就能馬上給出答案。

很多特斯拉車主的血淚經歷説明,處於放鬆狀態的司機,會看視頻、會睡着,而且過度信任特斯拉視覺感知系統的能力。

於是當“老師點名提問”來臨,他們往往措手不及。

當然,特斯拉也並非完全沒有針對性方案。

比如監測到司機雙手沒有握着方向盤,就會提醒,但後來也出現很多攻略,比如一個橘子就能“騙”過特斯拉的系統。

而且現在特斯拉 FSD 全自動駕駛硬件已經發布,依然依靠現有視覺為主的感知方案,馬斯克就認為足夠開啓全自動駕駛了。

該能力甚至都無需特斯拉車主握住方向盤,就能實現特斯拉從家中車庫到公司車路的全自動駕駛。

馬斯克還放話説要推出 RoboTaxi,推動 100 萬輛特斯拉成為無人駕駛出租車。

至於安全準備,馬斯克不以為意。

在 RoboTaxi 的落地推進中,Waymo 實際路測到 2000 萬公里,還小心翼翼在中西部城市鳳凰城郊區保守體驗。

而馬斯克認為,每一輛上路的特斯拉,或多或少都在陰影模式下參與了特斯拉自動駕駛路測。

什麼叫陰影模式,就是在特斯拉提供車主使用一些最新自動駕駛功能,並在後台通過“陰影模式”幫助特斯拉後台迭代自動駕駛算法。

很多特斯拉車主,也對此覺得並無不妥。

如外界評論的那樣,很多特斯拉車主並不會意識到自己當了馬斯克的小白鼠,直到車禍發生。

然而,一旦有車禍發生,特斯拉不會像 Uber 無人車那樣被直接追責,特斯拉官方和其他車主會異口同聲説:AutoPilot 很好,使用不當是當事車主的錯。

你説,這樣的小白鼠哪裏找?

所以,每一次這樣的事故後,只能給特斯拉車主送上老生常談的提醒:

道路千萬條,安全第一條,行車不規範,親人兩行淚。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 2935 字。

轉載請註明: 那麼醒目的橫躺大貨車,只有Model 3不減速撞上去 - 楠木軒