想要推理能力比肩人類 AI先得換種學習方式

本文轉自【科技日報】;

不管是人類,還是動物,在學習 大多數事物時,都是在自我監督的模式下進行的,而不是強化學習模式。這個模式本質上就是觀察這個世界,然後不斷與之互動,這種觀察是自發的,而不是在測試條件下完成的。

本報記者 金 鳳

人類在漫長的進化中,獲得了一種能通過感知、邏輯推理來與世界互動、認識世界的能力。當一個梨擺在我們面前時,我們能夠通過嗅覺、視覺等,判斷出它是梨而非蘋果。當在路上行駛時,即使行人被部分遮擋住,我們也能從露出的部分體貌特徵判斷出這是一個人,從而進行避讓。

在人工智能領域,科學家們也一直試圖讓機器擁有像人一樣的邏輯思維能力,幫助人完成更多工作。

近日,在2020 ICLR大會上,圖靈獎得主舒亞·本吉歐(Yoshua Bengio)和揚·勒昆(Yann LeCun)發表觀點稱,自監督學習有望使AI產生類人的推理能力。本吉歐相信機器最終可以習得關於這個世界的各種知識,這種知識的獲得並不需要機器去親身體驗各種真實發生的事件,而是通過習得語言化的知識來實現。

那麼機器如何具備類人的推理能力?想具備類人的推理能力還要逾越哪些障礙?

“死記硬背”讓機器難有邏輯能力

購物時,無需出示支付碼,將面部特徵綁定銀行卡就能輕鬆消費;回家路上,查詢手機地圖,可以看出哪些地段擁堵;到飯點了,跟機器人對話叫外賣……這些基於機器學習的應用,正在讓人工智能變得可觀可感。但機器學習面臨的挑戰便是,需要大量數據的積累以及很強的算力。

機器學習分為監督學習、無監督學習和強化學習。“監督學習需要對數據進行標籤分類,數據需要涵蓋所有可能的場景,此外,完成學習,機器還需要大量的算力。例如,如果希望創建圖像分類模型,則必須為系統提供經過適當分類標記的大量圖像,讓模型在其中進行充分訓練。有時數據量達到百萬、千萬級規模,需要幾百萬、上千萬次的迭代。”中國科學院自動化研究所研究員、視語科技創始人王金橋告訴科技日報記者。

因此,減少對數據的依賴,一直是研究人員最重要的探索方向之一。在南京航空航天大學計算機學院教授陳松燦看來,監督學習往往需要大量的帶有註釋、標記的數據,而標記這些數據,需要人工完成,既耗時又昂貴。

然而,即使是在有大量數據“打底”的監督學習環境中,一旦機器遇到不同於訓練示例的全新狀況,也面臨着失控的風險。

“例如無人駕駛汽車行駛在一條陌生的道路上,前方雖然出現了路杆,但如果此前系統沒有遇到過這種道路模式,就會撞上去。進入攝像頭視野的行人,如果未露出全貌,那系統就無法判斷出這是一個人,也會撞上去。還有我們進入停車場時,有些停車杆不能及時抬起,是因為靠近停車杆的行駛角度超出了此前設定的範圍。”王金橋表示,雖然數據標籤的質量,對於監督學習的效果非常重要,但監督學習不應侷限於這種模式,應該提高對未知環境的探索和理解能力。

自監督學習可利用規律舉一反三

對於機器學習的未來,揚·勒昆和約舒亞·本吉歐有着相同的期待,他們認為,自監督學習會創造出更像人類的人工智能。

正如勒昆所解釋的,大多數人可以在30小時內學會駕駛汽車,因為他們已經憑藉直覺構建了一個關於汽車行動方式的物理模型。

“自監督學習是無監督學習中的一種,它可以通過揭示數據各部分之間的關係、內在結構,從數據中生成標籤,這種標籤便於對數據進行分類。自監督學習需要學習的樣本量很少,但需要有基礎知識的積累。”王金橋説。

王金橋進一步解釋,例如下圍棋,如果機器可以將頂尖高手的棋路都學會,就能舉一反三。又例如,假設世界上有5000種蘋果的類型,植物學家又培育出一種新蘋果,與其他蘋果長得很像,那麼自監督學習就可以通過數據的分析,識別出這是蘋果,但又能認識到它是不同於以往的蘋果類型。也就是説,通過自監督學習,機器不需要訓練,就可以通過自動分析內部數據的結構關係,並且應用分析數據得到的規律,對各種新情況作出判斷。這種能力類似於人,在嬰幼兒時期,人類能用嗅覺、觸覺、視覺等感知世界,進入學校學習後,能將萬事萬物的物理特徵,與知識結合起來,慢慢形成推理能力。

王金橋認為,這有點類似於勒昆説的,自監督學習無需創建大量帶有標籤的數據集,例如用大量貓和狗的圖片,讓機器認識貓和狗的不同;也不用花費數千個小時訓練“Alpha Zero”這樣的國際象棋遊戲機器人,而是隻需獲取一些豐富的原始數據,例如視頻,然後“喂”給計算機,訓練機器預測視頻中即將出現的畫面。

“不管是人類,還是動物,在學習 大多數事物時,都是在自我監督的模式下進行的,而不是強化學習模式。這個模式本質上就是觀察這個世界,然後不斷與之增進互動,這種觀察是自發的,而不是在測試條件下完成的。”勒昆在2020 ICLR大會上表示。

達到類人水平還需算法理論突破

在幾位專家看來,目前想通過自監督學習實現機器的類人邏輯能力,還前路漫漫。

陳松燦認為,自監督學習需要解決數據的不確定性問題,即積累的數據與要完成的任務的匹配性問題。“例如,利用自監督學習訓練的自動駕駛系統,可以通過機載的測速儀、方向儀,學習安全行駛的方向和速度信息。但以現在的技術水平來説,如果行人橫穿馬路,而此前標記的信息與行人橫穿馬路不搭界,那自動駕駛系統就會無法做出判斷,發出指令。”

王金橋表示:“從監督學習到自監督學習,就像先讓機器知道什麼是1234,才能算加減乘除一樣。目前的自監督學習還非常初級,僅有一些小的、封閉的數據集。”

他説,目前制約自監督學習的因素涉及大數據積累、小樣本監督,以及自主進化、認知未知數據的能力。“在數據積累階段,還需要把數據做得更規範,搭建的深度學習網絡要有能支持自監督學習的能力,能讓機器自己生成標籤。在樣本監督學習階段,要解決樣本不均衡的問題,例如要讓機器學會分辨貓和狗,那麼貓和狗的案例數量要匹配,同時要去除數據噪音,不要把干擾圖像混入。”

“關鍵是要讓自監督學習產生認知的能力,而不只是代替人類的視覺、聽覺、觸覺,要從感知智能過渡到認知智能,讓機器建立自己的知識圖譜,能與人的思辨能力和知識圖譜對接,能進行知識表述和高階推理。”王金橋説。

但目前所有的不完美,並不影響兩位圖靈獎得主的信心。本吉歐認為,相比於動物,人類之所以聰明,是因為我們有自己的文化,讓我們能夠解決這個世界的問題。要想讓人工智能在現實世界中發揮作用,我們需要它不僅僅是有翻譯功能,更需要它能夠真正理解自然語言。

而在勒昆看來,如果説人工智能是一塊蛋糕,那麼自監督學習就是其中最大的一塊。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 2642 字。

轉載請註明: 想要推理能力比肩人類 AI先得換種學習方式 - 楠木軒