知名信息研究和分析機構高德納預測,到2025年,神經擬態芯片有望成為用於AI系統的主要芯片之一。
20世紀80年代,科學家設想將人類大腦的功能映射到硬件上,即直接用硬件來模擬人腦結構,這種方法稱為神經擬態計算,這類硬件被稱為神經擬態芯片。經過近40年發展,神經擬態芯片相繼問世。全球知名信息研究和分析機構高德納(Gartner)日前的預測顯示,到2025年,神經擬態芯片將成為高級人工智能部署的主要計算架構,該芯片有望成為用於AI系統的主要計算機芯片之一。
脈衝神經網絡信息處理不再依賴計算機
傳統人工智能主要以計算,即通過編程等手段實現機器智能。其中深度學習是目前廣泛應用的技術之一,2006年左右,深度學習技術進入大眾視野。它通過添加多層人工神經網絡,賦予機器視覺、語音識別以及自然語言處理等方面的能力。
儘管深度學習有人工神經網絡的加持,但通過計算實現智能的影子並未消失。“只不過與傳統計算相比,深度學習的算法模型發生了變化,實現的物理載體依然是計算機。”北京大學信息科學技術學院教授黃鐵軍接受科技日報記者採訪時表示。
“而與深度學習採用的多層人工智能神經網絡不同,神經擬態計算構造的是脈衝神經網絡,通過模擬生物神經網絡實現智能。它本身就是能處理信息的載體,不再依賴於計算機。”黃鐵軍表示,神經擬態計算是探索實現人工智能的新範式。在信息處理方面,現在的人工神經網絡處理的是相對靜態的、固定的信息,脈衝神經網絡則適合處理與時空高度相關的複雜信息流。
舉例來説,機器人看到豹子時,採用深度學習方法能識別出是豹子,但對機器人而言這只是一個系統中的信息標籤,而這些信息好像與它無關,機器並不能結合這些信息為下一步的行動作出判斷。而人看到豹子,不僅可以通過外觀識別出自己面對的動物是猛獸,還會觀察豹子的行動,甚至判斷自己所處的現實環境,並根據綜合信息作出是否需要逃跑的判斷。“這才是真正的智能。智能不僅是信息分類這麼簡單,它是對時空信息進行綜合處理並作出決策行動的過程。”黃鐵軍解釋道,神經擬態計算就是要通過模擬生物神經網絡的方式,讓機器擁有接近甚至超越生物神經網絡的系統,幫助機器感知自然界中時空變化的信息,實時處理信息流並採取行動。
“電腦”超越人腦成為可能
深度學習的大規模應用對計算機的計算能力提出更高要求,同時也讓經典計算機的耗能一直居高不下,而按照生物神經網絡結構設計的神經擬態計算,已成為大勢所趨和必然選擇。
神經擬態學工程師、德國海德堡大學物理學家卡爾海因茨·邁耶(Karlheinz Meier)表示,人腦相對計算機而言有三大特性:一是低能耗,人腦的功率大約是20瓦特,而當前試圖模擬人腦的超級計算機需要幾百萬瓦特;二是容錯性,人腦時刻都在失去神經元,而不會影響腦內的信息處理機制,而微處理器失去一個晶體管就能被破壞;三是無須編程,大腦在與外界交互的過程中自發地學習和改變,而無需像實現人工智能的程序一樣遵循預設算法所限制的路徑和分支。
黃鐵軍認為,通過模仿生物神經網絡實現機器智能是一條十分重要的研究路線,未來它甚至有可能突破生物智能的天花板。儘管生物神經網絡是一個慢速系統,每秒鐘能產生的神經脈衝數量只有十幾個,生物獲取和處理的信息量也處於較低水平,但一旦將生物神經網絡電子化,其處理信息的能力將比被模擬的生物大腦高出多個數量級。
黃鐵軍説,當與人腦類似的“電腦”變為現實時,它對人腦的大幅度超越就發生了:速度上,“電腦”可以比人腦快多個數量級;規模上,沒有顱骨限制,“電腦”可以根據需求擴容;壽命上,電子系統即使有損耗,也可以複製遷移到新系統而永生;精度上,生物大腦的很多缺陷和短板將被“電腦”避免和彌補。
目前缺乏應用於現實的模型
雖然神經擬態計算前景廣闊,但要實際應用仍面臨不小挑戰。黃鐵軍認為,缺少應用於現實的模型是神經擬態計算最大的瓶頸。
目前不少研究人員正在尋覓突破瓶頸的方式。有兩種主要的技術途徑:第一種是照着生物的腦部結構,依葫蘆畫瓢設計神經擬態計算系統。但前提是搞清楚生物神經網絡的細節,如神經元的功能、結構,神經突觸連接的特性等。
當前,人腦神經元的工作模式大體上已被科學家們掌握,大腦中數百個腦區的功能分工也已探明,但是腦區內的神經元網絡的細節依舊是個謎。如果把生物神經網絡看成地球,單個神經元就是城市裏的一户人家,目前城市之間的交通連接是比較清楚的,但這遠遠不夠,還要搞清楚每户人家是如何連接起來的。人腦有近千億個神經元和數百萬億個連接,要解析出精細藍圖,工程量可想而知。
黃鐵軍認為,20年內就很有可能弄清楚人腦神經網絡的精細結構。他還提到,研究人腦結構是個長遠目標,目前的工作重點是斑馬魚、果蠅等動物的腦結構。他預測,幾年之內果蠅腦(包含約30萬神經元)就能解析清楚,這個級別的脈衝神經網絡模型就會出現,利用果蠅腦模型,無人機就能更好地實現飛行、避障、追逐等。
在生物神經網絡藍圖完成之前,第二種技術路徑是人工設計脈衝神經網絡模型。這也是黃鐵軍團隊的工作內容之一,如基於對生物視覺的初步瞭解,設計視覺脈衝神經網絡模型;根據機器對於目標檢測、跟蹤和識別功能的需求,研發超速全時視網膜芯片等。
專家表示,一旦能解決實際問題,神經擬態計算將會改變人工智能的發展格局。不過,深度學習作為基本方法依然有存在價值,就像算法仍然會在其擅長的領域發揮作用一樣。另外,仿生物神經網絡是實現強人工智能的一條途徑,多種多樣的生物智能本身就是最好的證據,但這不等於説所有的智能問題都要用仿生方式去解決。
“神經擬態計算不是實現智能的唯一方式。”黃鐵軍強調。(記者 代小佩)
延伸閲讀
神經擬態芯片不會與AI加速器形成競爭
神經擬態芯片是實現神經擬態計算不可或缺的硬件之一。目前,神經擬態芯片和當下備受市場青睞的AI加速器均為處理神經網絡而設計,都比CPU性能高,且都聲稱能耗更低。在這樣的發展背景下,有人提出疑問:神經擬態芯片和AI加速器之間會發生競爭嗎?
英特爾神經擬態計算實驗室主管邁克·戴維斯(Mike Davies)認為,神經擬態芯片不能直接與傳統的AI加速器相比。AI加速器是為深度學習而設計的,它使用大量數據訓練大型網絡,而神經擬態計算處理單個數據樣本。神經擬態芯片接收到真實世界的數據信息後,以最低的延遲和最低的功耗進行處理,此模型與AI加速器完全不同。
黃鐵軍稱,神經擬態芯片和AI加速器的價值取向完全不同。神經擬態芯片是面向未來的技術,旨在打造全新的架構,建立新的智能模型和體系。而AI加速器則是立足當下產業的技術,其目的是把“計算機 軟件”打造的人工神經網絡硬件化,提高運行效率。“至於讓人工智能處理時空信息,構建更復雜的神經網絡,並非AI加速器當下的着眼點。畢竟,從產業化角度來説,應用於現實場景解決實際問題才是最重要的。”
“所以,神經擬態芯片和AI加速器之間不會發生競爭。”黃鐵軍稱,假如脈衝神經網絡最終替代了深度學習技術,今天做AI加速器的生產商或許會轉戰神經擬態計算市場,不過那是另一回事。