文 | 新熵,作者 | 古廿
曾經在李彥宏看來,中國使用者可以為了便利放棄隱私安全。但是如今在智慧汽車領域,即使車主們資訊裸奔,駕駛自由卻依然難以實現。
幾年前汽車行業曾經大膽預測的自動駕駛時間表,如今卻在不斷推遲。2019年以前,大家對於自動駕駛技術難以應用的普遍認知歸咎於當時不能滿足低延時要求的4G網路。
隨著2020年5G基礎發展和部署的完善,滿足自動駕駛的低延時網路成為可能,被稱為5G元年的2020年,也迎來了自動駕駛元年。
2020年2月,在一個公開的播客節目中特斯拉CEO馬斯克承諾:2020年底,實現全自動駕駛—即特斯拉汽車在沒有駕駛員任何干預的情況下,自動行駛到目的地。
為了表示信心,在同年4月的特斯拉自動駕駛開放日上,馬斯克再次強化承諾:2020年底,特斯拉將Autopilot系統升級到全自動駕駛功能,配置在Model S和Model 3上,並且將部署超過100萬輛無人駕駛計程車。
在2020年7月9日於上海舉行的世界人工智慧大會開幕式上,馬斯克進行演講並表示:特斯拉已經非常接近L5自動駕駛了,有信心在2020年完成開發L5級別的基本功能。
在馬斯克看來,實現L5級別的全自動駕駛不存在根本性難題,只是還有很多要解決的細節性問題。
如今關於特斯拉自動駕駛時間表的這一切正在被媒體們認為是馬斯克泡沫,因為事實證明在2020年沒有實現的L5級別自動駕駛,即使在2021年也幾乎難以實現。
曾經被馬斯克認為只是細節性的小問題,如今正在成為使智慧汽車深陷輿論的大問題。
無處不在的車主裸奔根據英特爾公司預測,2020年一輛每天執行8小時的自動駕駛聯網汽車可以產生4TB的資料。作為對比,2020年網際網路使用者每天產生1.5GB資料量,以此計算,一輛聯網汽車每天產生的資料量相當於3000人每天產生的網路資料量。
這麼龐大的資料量主要來自於為了實現自動駕駛,遍佈汽車的數百個車載感測器。以英特爾研究資料來看,攝像頭每秒可以產生20-40Mb的資料,鐳射雷達每秒產生將近10-70MB的資料。
雖然資料量驚人,但是對於資料的採集方式和用途,新能源廠商們卻得不到車主的信任。
以最近馬斯克在推特親自下場回應,引發社會爭議的特斯拉監控門為例。事情的起因是馬斯克發推文提醒自動駕駛Bate版本的試用使用者,稱根據監控攝像頭髮現有部分車主對於道路情況沒有足夠關注,對於這部分使用者要收回試用許可權。
隨後有網友追問車內攝像頭是不是可以監控車主,馬斯克回答是的。之後關於特斯拉是否監控車主,侵犯隱私的問題引發網友熱議。
對於此事,特斯拉官方隨後在3月19日釋出宣告表示:特斯拉的車輛不存在透過車內攝像頭侵犯車主隱私的行為,並強調稱,所有中國市場上的特斯拉車輛均未開啟車內攝像頭。
官方的回答並沒有讓車主們安心,根據新浪科技最近的一次微博投票顯示,70%的人表示不相信。主要原因可能是因為在2017年時,對於車內攝像頭的功能,馬斯克曾經表示是為了共享自動駕駛汽車準備的,透過攝像頭可以來監控是否有人故意弄髒你的車。
後來自動駕駛無限期推遲,共享計劃也不了了之。但是車內的攝像頭卻被用來監視司機,這讓車主們認為監控與否完全取決於特斯拉,自己不能知曉也不能自由控制。
車內攝像頭監控不是什麼新鮮事,以國內為例,根據交通部規定,部分車輛安裝智慧影片監控系統早已成為必要條件——依據交通運輸部辦公廳釋出的“關於推廣智慧影片監控報警技術的通知”,在2020年6月30日前,所有“兩客一危”車輛需安裝完畢。
但是人們對於智慧汽車卻不再相信,因為相較於自己按照規定通知安裝的知情權,特斯拉等智慧汽車可能不需要讓你知道,透過軟體更新就可以啟動車內攝像頭。
根據《IT時報》報道,蔚來、小鵬等一批造車新勢力的部分車型上都有攝像頭,目的是監測車主是否疲勞駕駛。對於是否會侵犯隱私,廠商們都表示只會檢測駕駛員眼球,在疲勞駕駛時車輛給予提醒。
業內人士表示“疲勞提醒”等類似功能也被作為一個車輛智慧化的亮點來進行售賣,而且不上傳雲,本地就可以處理資料資訊並做出提醒。
如果說車內攝像頭是為了駕駛安全,那麼被稱為自動駕駛汽車“眼睛”的車外攝像頭則成為特斯拉會侵犯隱私的官方懷疑。
根據相關媒體報道,特斯拉被禁止停放在相關國家安全家屬院內,主要因為特斯拉會主動收集車身周圍的外部環境情況。此前這一模式被認為是特斯拉智慧化的表現之一,稱為“哨兵模式”。
根據外媒報道,對於特斯拉汽車,儀表板相機和自拍相機可以在汽車停放時記錄,而對於車主而言,他們不可能知道特斯拉何時會這樣做。這些攝像頭支援“哨兵模式”等功能,此外,它們還能使雨刷“看到”雨滴,並自動工作。
除了擔心會洩露隱私的攝像頭問題,不起眼的二手零件隱私問題此前也引發擔憂。
美國消費者媒體CNBC此前指出,如果你不幸撞毀了你的特斯拉汽車,即使它被拖往垃圾場,你也不要忘記,它可能帶著一大堆有關你的歷史,因為特斯拉電動汽車所儲存的資料遠超出你的想象。
2020年一個化名為“GreenTheOnly”的白帽駭客,透過在eBay購買的特斯拉二手零件,從中提取出包括但不限於手機電話本、通話記錄、日曆專案、Spotify和Wi-Fi密碼、家庭和工作地點的定位、導航去過的位置,以及允許訪問Netflix和YouTube(還有附加的Gmail帳戶)的會話cookies。
不僅如此,在2019年3月,根據美國消費者新聞報道,打撈出來的特斯拉汽車也依然儲存有資料。雖然使用者可以利用工廠設定選項清除汽車中的敏感資料,但一旦舊部件從汽車上拆除,使用者就無法進行清除。
不僅特斯拉有隱私問題,其他品牌的汽車也有同樣的隱私問題。美國聯邦貿易委員會(FTC)此前曾向司機發出警告,提醒他們不要將自己的手機與租來的車輛配對,並敦促他們學會在退還租車或出售自己的汽車之前,將汽車系統“擦”乾淨。
GreenThely解釋說:“汽車在什麼時候記錄什麼,以及在內部系統中儲存什麼,特斯拉在這方面並不是超級透明的。你可以選擇退出所有資料收集,但之後你就失去了軟體更新和其它一大堆功能。因此,可以理解的是,沒有人會那樣做,甚至可能包括我在內”
資料知情權不清晰,作為車主不知道自己購買的汽車處於什麼狀態;二手零件資料抹除不徹底,車主隱私資訊伴隨著二手零件在不同人之間流轉。
根據今年兩會上海市資訊保安行業協會會長談劍鋒提交的《關於加強對智慧汽車資料安全監管》提案中的統計資料稱:特斯拉可以採集覆蓋車主個人資訊、車輛環境資訊、車輛行駛資訊、車主手機資訊等200多項資訊,國內同類廠商也採集有170多項。
大量的資訊資料被採集用來支援自動駕駛,但是即使如此,自動駕駛卻依然難以實現。
難以自由的自動駕駛自動駕駛的穩定性和車主們的隱私安全一樣,也是一個不可知的資料黑盒。
以一直對外公開宣稱自動駕駛的特斯拉為例,3月6號馬斯克稱特斯拉完全駕駛系統測試版已經發布。但是內測版本推出不久後,在一段測評博主13分鐘的公開影片中,自動駕駛模式下的特斯拉汽車在美國加州某街道狀況頻出。
3月23日,在中國臺灣的特斯拉Model 3車主在當地試用自動駕駛功能時發生事故,車輛在闖過紅燈後撞上多臺橫向行駛的摩托車,並最終翻車。此前一週內,另一輛特斯拉Model3在美國密歇根州撞上了一輛靜止的警車,引來了美國國家公路交通安全管理局的調查。
3月18日,美國國家公路交通安全管理局正式宣佈,該機構已針對27起特斯拉自動駕駛系統的安全事故進行調查,其中至少有3起是最近數週內發生的。
事實上,從2016年開始,自動駕駛相關的安全事故就不斷髮生。
2016年1月20日,京港澳高速河北邯鄲段發生一起追尾事故,一輛特斯拉轎車直接撞上一輛正在作業的道路清掃車,特斯拉轎車當場損壞,司機高雅寧不幸身亡。歷時一年多,2018年2月27日,特斯拉確認事故發生時車輛開啟自動駕駛功能。
2016年5月7日,佛羅里達州一名司機因感測器和攝像頭系統未能檢測到一輛橫穿馬路的大貨車,從而沒有采取制動而喪生,引發了對特斯拉自動駕駛技術的諸多質疑。
2017年3月24日,Uber的一輛自動駕駛車在路試時與另一輛SUV發生碰撞;2017年8月26日,Google自動駕駛汽車發生過十幾次的交通事故。
自動駕駛難以實現,自動駕駛的事故原因卻基本都是人為。
2020年1月份,美國國家公路交通安全管理局(NHTSA)收到一份特斯拉“意外加速”的事故請願書,僅美國單一市場涉及123輛車和110起撞車事故,52人受傷。
報告中稱,當車主試圖將特斯拉車輛停在車庫或路邊時,車輛發生了突然加速事件。還有一些車主表示,突然加速發生在交通行駛過程中或使用自動駕駛輔助系統時,最終導致撞車。涉事車輛包含2013年至2019年生產的特斯拉汽車,Model 3、Model S和Model X車型。
此後,美國國家公路交通安全管理局經過一年詳細評估後認為:絕大部分事故案例,並非因特斯拉車輛的技術故障所造成,都是由車主誤操作所導致,並且特斯拉的設計也不會提高車主誤操作的機率。
根據新浪科技報道:“資料包背後的事實,完全依賴於工程師的解讀與還原。”這或許也是車主對於特斯拉缺乏信賴的原因—特斯拉提供給車主的檢測報告並不完整,且依賴於自己的工程師的解讀。
一方面依靠自己的資料,特斯拉幾乎所有的檢測報告都把問題指向車主;另一方面,依靠釋出季度資料報告,特斯拉在證明自動駕駛越來越安全。
根據特斯拉釋出的2020年第四季度報告顯示“有Autopilot功能的車輛,每行駛345萬英里記錄了一起事故。對於那些沒有Autopilot但使用我們的主動安全功能的駕駛者,我們每行駛205萬英里就記錄了一起事故。對於那些沒有Autopilot功能,也沒有主動安全功能的駕駛者,每行駛127萬英里就會發生一起事故。相比之下,NHTSA的最新資料顯示,在美國,每48.4萬英里就有一起汽車事故。”
自2018年以來,特斯拉一直透過釋出這樣的報告,對比自動駕駛與非自動駕駛時的每次事故里程數,為其在自動駕駛安全方面的改進打造一個標杆。但是根據外媒報道,對於資料的真實性也有不少人存疑。
在2017年特斯拉給美國國家公路交通安全管理局(NHTSA)提供資料時,曾經被美國一家諮詢公司QSC發現特斯拉汽車向NHTSA提供的兩個資料點有問題:在安裝Autopilot系統之前里程錶的最後一個讀數,和安裝完成之後的里程錶第一個讀數不一樣。
簡單來說,就是特斯拉對統計資料做了手腳,導致NHTSA的資料完全不可信。根據QCS的統計,特斯拉向NHTSA提供了43,481輛車輛的資料,這些車輛中有69%缺少啟用Autopilot前的行駛里程資料。
除了一直宣稱自動駕駛的特斯拉,國內對標特斯拉的幾大智慧廠商,比如理想汽車也曾在2020年青島因為輔助駕駛發生事故。
即使如此,畫大餅吹大牛,依然是加快自動駕駛的方法之一。因為在業內人士看來,只有上路才有資料,大量的資料才可以推動自動駕駛的發展。
自動駕駛還差什麼相比電動汽車經常強調電池技術用來緩解車主里程焦慮,自動駕駛汽車喜歡強調資料量,資料量也成為作為衡量一個廠商自動駕駛能力的標準之一。
資料就是AI的燃料,但是對於車主們來說,即使把個人資訊資料全權託付,自動駕駛卻一再延期。即使激進如馬斯克,也在頻發的特斯拉事故中從中國官方下架了自動駕駛的宣傳噱頭。
那麼資料餵養究竟能不能養出自動駕駛呢?根據業內的共識劃分來看,一輛汽車想要實現自動駕駛大致分為三步:感知識別→決策規劃→控制執行,其中最大的困難和瓶頸就來自於感知識別。
行業內目前主要分為兩個派系:一個是以特斯拉為主的視覺派,就是採取類似人的感知模式,透過神經網路的學習,不斷進化外界感知能力,提高自動駕駛水平。另一個是小鵬汽車為主的鐳射雷達系,透過反射形成的“點雲”資料集合感知外部,實現自動駕駛。
視覺派系的主要優點是硬體便宜,但是因為軟體類的神經網路訓練時間長、資料集昂貴,所以特斯拉後續的全套FSD更新,有人預計大概能達到20萬美元,所以特斯拉也被稱為未來賣軟體提高收入的車廠。
業內人士分析認為:透過資料餵養可以不斷地支援特斯拉進行神經網路演算法的迭代,但是隻有資料餵養的訓練卻遠遠不夠。更多的基礎設施,實現車輛之間的資訊互相交換,車輛和道路之間的資訊協同才是車聯網自動駕駛的未來。
對於自動駕駛來說,不管神經網路演算法多麼強大,資料集訓練多麼完美,還有一個不可避免的問題是都會面臨AI上的無限逼近。簡單來說就是隻能無限逼近100%的正確性,卻不能如同現在0、1二進位制計算機裡永遠100%的機器正確性。
人類容許自己犯錯誤,但是對於自動駕駛來說,無限逼近的安全性究竟是多少還沒有結論。
不過根據傳統汽車廠商ISO安全認證的經驗,對於安全性,取人類生存率最高的10歲為標準,只要汽車的安全性高於10歲時人類的生存率就認為足夠安全。
關於自動駕駛,可能在到來之前,我們還有很多標準需要完善。比如資料隱私、比如安全標準,而不僅僅只是一個SEC的自動駕駛等級劃分。