智慧交通第一步,無人駕駛解放雙手

無人駕駛曾經是科幻小說和電影的經典場景,是緊貼大地和生活的頂級技術工程,“艱難”和“顛覆”是無人駕駛無法逃避的兩個命題。

而很長時間以來,無人駕駛在技術上都面臨著如何提高汽車視覺能力的難題。可以說,正是因為視覺識別技術的進步,無人駕駛汽車的發展才存在可能;也正是因為視覺識別技術的制約,無人駕駛技術的發展一直蹣跚不前。

2016年分別發生在美國和中國的兩起特斯拉自動駕駛狀態下的車禍致死事件,本質上就是由視覺識別技術的缺陷所致。

汽車實現智慧自動化必須滿足兩個條件:其一,滿足現實環境對無人駕駛汽車的要求。相比於智慧手機,無人駕駛汽車面臨的環境更為複雜,任何一個失誤都可能關乎生命安全;其二,能夠應對小機率事件,避免發生意外。

智慧交通第一步,無人駕駛解放雙手

無人駕駛汽車與智慧機器人的基本原理和社會環境基本相似。在機器人研究領域,機器人學家將這種只在1%時間內才發生的突發性小機率事件稱之為 “極端事件(Corner Cases) ”。極端事件的不尋常之處在於,很少發生,但是一旦發生卻可能導致災難性後果。

5月8日,在自動駕駛權威資料集Semantic KITTI上,達摩院憑藉全新演算法在“單幀3D點雲語義分割”排行榜獲得第一。該技術用於達摩院的無人物流車後,大幅提升了車輛的環境精細化理解能力,使車輛能夠識別“釐米級”障礙物。

KITTI資料集是全球最權威的自動駕駛計算機演算法評測資料集,為促進基於鐳射的語義分割研究,KITTI推出了細分資料集Semantic KITTI。透過全類別分割平均交併比(mIOU)和整體準確率(accuracy)兩大指標,考察參賽者的技術能力。達摩院團隊在兩項指標的評比中均拿下第一。

點雲(Point Cloud)是擁有三維座標、強度等資訊的鐳射點的集合,是計算機視覺領域常用的三維資料表示方式。自動駕駛車輛通常藉助鐳射雷達、攝像頭、毫米波雷達等感測器識別環境資訊。對於鐳射雷達獲取的周圍環境的3D點雲,識別每個點的語義標籤,就是“3D點雲語義分割”。

智慧交通第一步,無人駕駛解放雙手

圖左為原始點雲,圖右為經過語義分割的點雲,自動駕駛車輛辨別出了行人、車輛、樹木、建築等物體。

除了行人、車輛等常規檢測目標,道路周圍的建築、綠化、不明障礙物也會影響自動駕駛車輛的駕駛行為。3D點雲語義分割技術的目標,便是幫助車輛更精細地理解道路環境。

達摩院自動駕駛實驗室資深演算法專家卿泉介紹,業界通用的點雲區域性上下文特徵建模方法難以滿足自動駕駛實時、精準的感知需求。達摩院提出的新演算法以鐳射點為載體,結合每個3D點在鳥瞰、前視等視角下的鄰域特徵,透過多層級聯編碼進行特徵學習,極大地增強了3D點的特徵表示能力,由此提高了語義識別的準確性。

該演算法應用於達摩院的無人物流車後,車輛對障礙物的精細化識別水平大幅提升。我們即將進入5G時代,5G網路提供了更高的傳輸速率、精準低時延控制和精準定位,可以大大提高無人駕駛技術的資訊收集回傳效率,從而實現車載與路側感知的資訊融合。這就降低了車載系統的計算複雜度,有效解決了車車、車路協同問題。

可以預見,智慧交通協同發展將成為一種趨勢,車輛的自主控制能力不斷提高。完全自動駕駛終將實現,人和車的關係也終將被改變。

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 1306 字。

轉載請註明: 智慧交通第一步,無人駕駛解放雙手 - 楠木軒