編者按:
7月9日,為期三天的2020世界人工智能大會在上海世博中心開幕。此屆世界人工智能大會以“智聯世界、共同家園”為主題,聚焦“AI技術趨勢”、“AI賦能經濟”以及“AI温暖家園”三大議題。
以“智聯世界、共同家園”為主題的2020世界人工智能大會雲端峯會,7月9日在上海世博中心開幕。
人們堅信人工智能會成為和工業革命一樣重要的浪潮。但新硅谷機器人創業公司Robust.AI首席執行官兼創始人蓋瑞·馬庫斯
(Gary Marcus)
與紐約大學柯朗數學科學研究所計算機科學教授、人工智能領域科學家歐內斯特·戴維斯(Ernest Davis)
卻對此保持着更為深層次的敏鋭和思考。他們從認知科學中提煉出了11條對人工智能發展方面的啓示,以通用人工智能為發展目標,給出了未來AI技術的一種發展方向。AI現在面臨着哪些挑戰?未來會不會出現威脅人類的超級人工智能?AI會成為堪比工業革命的浪潮嗎?當下的AI存在哪些風險?真的有可信的AI嗎?理想的AI與現實的AI之間究竟存在哪些差距?如何構建人類和AI之間的信任?
在馬庫斯和戴維斯二人合著的《如何創造可信的AI》一書中,兩位作者指出,關於人工智能的炒作總是甚囂塵上,但要得到真正可信的AI,卻遠比想象的要複雜得多,超級智能的時代還遠未到來。
馬庫斯和戴維斯表示:創造真正可信的AI需要賦予機器常識和深度理解,而不是簡單地統計分析數據。AI真正的問題在於信任,常識才是深度理解的關鍵。他們堅信, AI能掀起波及整個世界的重大變革,但在AI取得真正的進步之前,許多基本假設也需要改變。
以下內容節選自蓋瑞·馬庫斯與歐內斯特·戴維斯合著的《如何創造可信的AI》一書,已獲得出版社授權刊發。
《如何創造可信的AI》,(美)蓋瑞·馬庫斯、歐內斯特·戴維斯著,龍志勇譯,湛廬文化丨浙江教育出版社,2020年5月
撰文丨[美]蓋瑞·馬庫斯
[美]歐內斯特·戴維斯
摘編丨何安安
AI的發明可能是“人類文明史上最可怕的事件”?
20年之內,機器將擁有人類所具備的一切工作能力。
——AI先驅,赫伯特·西蒙,1965年
自從人工智能誕生之始,業界專家就保持着願景有餘、落地不足的傳統。20世紀五六十年代,馬文·明斯基
(Marvin Minsky)
、約翰·麥卡錫(John McCarthy)
與赫伯特·西蒙(Herbert Simon)
等先驅人物曾發自內心地篤信,AI的問題將在20世紀末之前被徹底解決。明斯基有句廣為流傳的名言:“一代人之內,人工智能的問題將在總體上得到解決。”50年之後,這些預言卻未能實現,而新畫的“大餅”卻層出不窮。2002年,未來學家雷·庫茲韋爾(Ray Kurzweil)
公開斷言AI將在2029年之前“超越人類本身的智慧”。2018年11月,OpenAI這家著名AI研究機構的聯合創始人伊利亞·蘇茨科弗(Ilya Sutskever)
提出:“我們應嚴肅認真地考慮近期實現通用人工智能(AGI)
的可能性。”雖然從理論上講,庫茲韋爾和蘇茨科弗的預言有望實現,但此事成真的可能性非常渺茫。我們距離具有人類智能靈活性的通用人工智能太過遙遠,不是再走幾小步就能到達的,相反,這個領域還需要大量的基礎性進步。我們將闡明,繼續複製行業過去幾年間取得的成果是遠遠不夠的,我們需要去做一些完全不同的事情。
電影《人工智能》劇照。
即便並不是每個人都像庫茲韋爾和蘇茨科弗那樣積極樂觀,但從醫療行業到無人駕駛汽車領域,各種野心勃勃的承諾依然隨處可見。這些承諾通常會落空。舉例來説,2012年,我們經常聽到人們談起“自動駕駛汽車將在不久的將來成為現實”。2016年,IBM宣稱,在Jeopardy!智力問答節目中奪魁的AI系統沃森
(Watson)
將會“在醫療行業掀起一場革命”,並稱沃森健康(Watson Healthcare)
的“認知系統能理解、推理學習和互動”,並且“利用認知計算在近期取得的進步……我們能達到不敢想象的高度”。IBM的目標,是解決從藥理學、放射學到癌症診斷與治療中存在的諸多問題,利用沃森去讀取醫學文獻,給出人類醫生可能會遺漏的醫療建議。與此同時,AI領域最卓越的研究人員之一傑弗裏·欣頓
(Geoffrey Hinton)
説:“很明顯,我們應該停止培養放射科醫師。”2015年,Facebook啓動了M計劃。這是一個目標遠大、覆蓋範圍廣泛的聊天機器人項目。這個機器人要有能力應對你的每一種需求,既能幫你預訂餐廳座位,又能幫你規劃下一次度假旅行。但是,直至今日,上述目標還沒有一件得到落實。沒準兒有一天,自動駕駛汽車能真正保證安全並普及,聊天機器人真能實實在在地滿足你的所有需求,擁有超級智能的機器人醫生真能給你看病。但現在看來,所有這一切都是理想,而非現實。無人駕駛汽車的確存在,但主要侷限在高速公路環境中,還需要人類司機就位才能保證安全,原因是軟件太不靠譜,不敢讓人以性命相托。2017年,Waymo公司
(從谷歌分拆出來專門從事無人駕駛汽車工作達10年之久的公司)
首席執行官約翰·克拉夫茨克(John Krafcik)
放出大話,説Waymo很快就能推出無須人類司機作為安全保障的無人駕駛汽車。一年之後,正如《連線》雜誌(Wired)
所言,囂張氣焰全無,人類司機還在。沒有人真的認為,無人駕駛汽車已經可以在“無人”狀態下,完全憑藉自身能力在城市之中或惡劣天氣之下外出行駛。早期的樂觀態度,也被現如今的冷靜所取代。人們普遍認為,要達到真正的無人駕駛,尚需至少10年的發展,很可能10年還遠遠不夠。同樣,IBM的沃森向醫療方向的轉型也冷卻了下來。2017年,MD安德森癌症中心停止了與IBM在腫瘤學方面的合作。
據報道稱,沃森給出的一些建議“不安全、不正確”。2016年,位於德國馬堡的“罕見病和未確診疾病中心”利用沃森開展的項目,不到兩年就被叫停,因為“工作結果無法接受”。當醫生將病人的胸痛症狀告知沃森系統時,沃森並沒有提出心臟病、心絞痛或主動脈撕裂等可能的診斷,而這些連一年級的醫學生都能提出。沃森的問題被曝光後不久,Facebook的M計劃也被叫停。此時距離項目啓動的時間還不到3年。
電影《我,機器人》劇照。
雖然AI領域一直以來都保持着虎頭蛇尾的習慣,但看好AI的呼聲依然狂熱到爆棚。谷歌前首席執行官艾裏克·施密特
(Eric Schmidt)
曾信心滿滿地宣佈,AI會解決氣候變化、貧困、戰爭和癌症等諸多社會問題。X-Prize創始人彼得·戴曼迪斯(Peter Diamandis)
在他的著作《富足》(Abundance)
中也提出過類似的觀點,認為強AI在成真之日“一定會如火箭般載着我們衝向富足之巔”。2018年初,谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)
宣稱:“AI是人類正在從事的最重要的事業之一,其重要性超越電和火的應用。”不到一年之後,谷歌被迫在一份給投資者的報告中承認,“納入或利用人工智能和機器學習的產品和服務,可能在倫理、技術、法律和其他方面帶來新的挑戰,或加劇現有的挑戰”。還有些人因AI的潛在危害而苦惱不已,而這些擔憂與實際情況相去甚遠。牛津大學哲學家尼克·博斯特洛姆
(Nick Bostrom)
提出了關於超級智能佔領世界的話題,好像這個災難不久就會發生似的。亨利·基辛格(Henry Kissinger)
在《大西洋月刊》(The Atlantic)
發表的文章中稱,AI的危險可能極其巨大,“人類歷史可能重蹈印加人的覆轍,面對AI,就像印加人面對無法理解的西班牙文化一樣,甚至會對其產生崇拜和敬畏之心”。埃隆·馬斯克(Elon Musk)
曾提出警告,稱推進AI向前發展的行為無異於“召喚惡魔”,為人類帶來“比核武器更恐怖”的危險。已故的史蒂芬·霍金(Stephen Hawking)
曾説過,AI的發明可能是“人類文明史上最可怕的事件”。但是,他們所討論的AI究竟是什麼樣的AI?回到現實之中,滿眼看到的都是連門把手都打不開的機器人,“自動巡航”模式下的特斯拉三番五次追尾停在路邊的車輛,僅2018年就發生過至少4次。這就好比是,生活在14世紀的人們不去操心當時最急需的衞生環境,卻在為交通堵塞問題而杞人憂天。
人們為何總是過高地估計AI的實際能力?
人們之所以總是過高地估計AI的實際能力,一部分原因在於媒體的誇張宣傳,將每一次小小的成績描繪成天翻地覆的歷史性突破。
電影《人工智能》劇照。
看看下面這兩個關於所謂機器閲讀技術大突破的文章標題。
A:《機器人超越人類閲讀水平,令數百萬人面臨失業風險》
——《新聞週刊》
(Newsweek)
,2018年1月15日B:《計算機的閲讀能力正在趕超人類》
——《CNN財富》
(CNNMoney)
,2018年1月16日第一個標題比第二個更加陰險,但兩個標題都對一點點小進步進行了極大誇張。首先,此事根本沒有機器人蔘與,而且研究過程中只從一個極其片面的角度對閲讀能力進行了測試,與閲讀理解的全面測試相距甚遠。根本沒有誰的工作會因此而受到威脅。實情是這樣的:微軟和阿里巴巴兩家公司分別開展了“斯坦福問答數據庫”
(SQuAD,the Stanford Question Answering Dataset)
項目,對計算機在閲讀過程中一個覆蓋面很窄的單一方面進行了針對性測試。結果顯示,針對該特定任務的閲讀能力有微小進步,從之前的82.136%提高到了82.65%,也就是所謂的從之前不及人類的水平提高到了人類的水平。其中一家公司發佈了一篇媒體新聞稿,將這點微不足道的成績説成革命性的突破,並宣佈“能閲讀文件、傾聽敍述並回答問題的AI”就此誕生。
現實遠遠沒有這麼性感。上述測試是被設計來搞研究的,並不能作為閲讀理解水平的評判基準。測試中提到的每一個問題,都能從文章中生搬硬套地找到答案。説白了,這個測試只能評判劃重點的能力,別無其他。至於閲讀的真正挑戰—推斷出作者在字句之外所表達的意思,這些測試則根本連邊都沾不上。
舉例來説,假設我們給你一張紙,上面寫着這樣一段話:
蘇菲和亞歷山大兩個孩子外出散步。他們都看到了一隻狗和一棵樹。亞歷山大還看到了一隻貓,並指給蘇菲看。她跑去摸了摸小貓。
我們可以輕而易舉地回答諸如“誰去散步”之類的問題,問題的答案“蘇菲和亞歷山大”是直接在文中標明的。但真正的閲讀需要我們更進一步看到字句之外的意思。我們還應該能回答諸如“蘇菲有沒有看到貓”和“孩子們有沒有被貓嚇到”等問題,雖然這些問題的答案並沒有直接擺在文字之中。如果你回答不了,就沒辦法理解接下去會發生的事情。斯坦福問答數據庫並不包含此類問題,新的AI系統也沒辦法應對這類問題。為了進行對比,我們在撰寫此段內容時,馬庫斯將這則故事在他4歲半的女兒克洛伊身上進行了測試。克洛伊不費吹灰之力就推斷出了故事中的蘇菲看見了貓。克洛伊還不到6歲的哥哥更棒,接着説如果那隻狗其實是一隻貓則會如何如何。這種能力,是現如今的AI完全無法企及的。
電影《我,機器人》劇照。
技術大鱷們每次發佈這樣的新聞稿,基本都是同一個套路。而眾多媒體
(幸虧不是所有媒體)
都將一點點小進展描繪成意義非凡的革命壯舉。舉例來説,幾年前,Facebook開展了一個基礎的概念驗證項目,針對AI系統閲讀簡單故事並回答相關問題的能力進行評估。結果一大堆熱情高漲的新聞標題隨之呼嘯而來,《Facebook稱已找到讓機器人更富智慧的秘密》《能學習並回答問題的Facebook AI軟件》《能閲讀〈魔戒〉概要並回答問題的軟件,可加強Facebook搜索能力》,諸如此類。果真如此的話,確實屬於重大突破。哪怕是能看明白《讀者文摘》或托爾金的簡明註釋本,都算是個了不起的壯舉,更別提看懂《魔戒》原著本身了。但無奈的是,真有能力完成這一壯舉的AI根本不在我們現如今的視野之中。Facebook AI系統所閲讀的文本概要實際上只有4行文字:比爾博回到洞穴。咕嚕將魔戒留在了那裏。比爾博拿到魔戒。比爾博回到夏爾郡。比爾博將魔戒留在了那裏。佛羅多拿到魔戒。佛羅多前往末日山。佛羅多將魔戒留在那裏。索倫魔王死去。佛羅多回到夏爾郡。比爾博前往灰港。全劇終。
但即使這樣,這個AI系統竭盡全力能做到的只是直接回答段落中所體現的基本問題,例如“魔戒在哪裏”“比爾博現在何處”“佛羅多現在何處”。千萬別想問“佛羅多為什麼放下魔戒”之類的問題。許多媒體人在進行技術報道時,尤其喜歡誇大其詞。這樣做的直接後果就是讓公眾誤以為AI成真的曙光已經灑滿大地。而實際上,我們還有很漫長的夜路要走。從今往後,若再聽説某個成功的AI案例,建議讀者提出以下6個問題:
1.拋開華而不實的文筆,此AI系統究竟實實在在地做到了哪些事?
2.此成果的通用性有多強?
(例如:所提到的閲讀任務,是能測量閲讀中的所有方面,還是隻有其中的一小部分?)
3.有沒有演示程序,能讓我用自己的例子來實驗一下?如果沒有,請保持懷疑態度。
4.如果研究人員或媒體稱此AI系統強於人類,那麼具體指哪些人類,強出多少?
5.被報道的研究成果中所成功完成的具體任務,實際上將我們與真正的人工智能拉近了多少距離?
6.此係統的魯棒性如何?如果使用其他數據集,在沒有大規模重新訓練的情況下,是否還能成功?
(例如:一個玩遊戲的機器如果掌握了下國際象棋的技能,它是否也能玩《塞爾達傳説》這類動作冒險遊戲?用於識別動物的系統,是否能將之前從未見過的物種準確識別為動物?經過訓練能在白天出行的無人駕駛汽車系統,是否也能在夜間或雪天出行,如果路上新增了一個地圖中沒有的繞行標誌,系統是否知道如何應對?)
機器在許多方面依然無法和人類相提並論
誠然,最近幾年來,AI的確以日新月異的速度變得更加令人震撼,甚至令人歎為觀止。從下棋到語音識別再到人臉識別,AI都取得了長足的進步。我們特別欣賞的一家名叫Zipline的創業公司,利用了一些AI技術來引導無人機將血液送到非洲的患者身邊。而像這樣有價值的AI應用,在幾年前還是無法實現的。
最近AI界的許多成功案例,大都得到了兩個因素的驅動:第一,硬件的進步,通過讓許多機器並行工作,更大的內存和更快的計算速度成為現實;第二,大數據,包含十億字節、萬億字節乃至更多數據的巨大數據集,在幾年前還不存在。比如ImageNet存有1400萬張被標記圖片,這在訓練計算機視覺系統時發揮了至關重要的作用。
除此之外,還有維基百科以及共同構成萬維網的海量文件。和數據同時出現的,還有用於數據處理的算法—“深度學習”。深度學習是一種極其強大的統計引擎
(statistical engine)
,我們將在第3章中對此進行具體解釋和評價。從Deep Mind下圍棋的Alpha Zero和下國際象棋的Alpha Zero,到谷歌最近推出的對話和語音合成系統谷歌Duplex,AI在近幾年所取得的幾乎每一項進展,其核心都是深度學習。在這些案例中,大數據、深度學習再加上速度更快的硬件,便是AI的制勝之道。深度學習在許多實際應用領域也取得了極大的成功,如皮膚癌診斷、地震餘震預測、信用卡欺詐檢測等。同時,深度學習也融入了藝術和音樂領域,以及大量的商業應用之中,從語音識別到給照片打標籤,再到資訊信息流的排序整理等。我們可以利用深度學習去識別植物,自動增強照片中的天空,甚至還能將黑白照片轉換成彩色。深度學習取得了令人矚目的成就,而AI也隨之成了一個巨大的產業。谷歌和Facebook上演了史詩級的人才大戰,為博士生開出高薪。
2018年,以深度學習為主題的最重要的一場科學大會,全部門票在12分鐘之內被搶購一空。雖然我們一直認為,擁有人類水平靈活性的AI比許多人想象的要更難以實現,但近些年取得的長足進展也不容否認。大眾對於AI的興奮並非偶然。
各個國家也不甘落後。法國、俄羅斯、加拿大和中國等國家在AI領域都做出了重大戰略部署。麥肯錫全球協會認為,AI對於經濟的整體影響可達13萬億美元,其歷史意義完全可以與18世紀的蒸汽機和21世紀初的信息技術相媲美。
然而,以上種種並不能確保我們走在正確的道路上。
即使數據越來越充裕,計算機速度越來越快,投資數額越來越大,我們還是要認清一個現實:當下的繁榮局面背後,缺少了某些本質上的東西。就算攬盡所有這些進步,機器在許多方面依然無法和人類相提並論。
以閲讀為例。當你讀到或聽到一個新句子時,你的大腦會在不到一秒鐘的時間內進行兩種類型的分析:第一,句法分析,將句子拆解成一個個名詞和動詞,領會單個詞彙的意義和整個句子的意義;第二,將這句話與你所掌握的關於世界的知識相聯繫,把這些通過語法組織在一起的零件與你所瞭解的所有實體以及你腦海中的所有思想整合為一體。如果這句話屬於電影中的一段對話,你就會根據這句話對你所理解的該角色的意圖和展望進行更新。此人想要做什麼?他説的是實情還是謊言?這句話和之前發生的情節有着怎樣的關係?這樣一句話會對他人構成怎樣的影響?
舉例來説,當數千名奴隸一個接一個地冒着被處決的危險站起來高呼“我是斯巴達克斯”時,我們立刻就能知道,除了斯巴達克斯本人之外,其他所有人都在説謊,而眼前的一幕又是那麼動人、那麼深刻,當前的AI項目根本達不到這樣的理解水平。據我們所知,目前的AI水平甚至連朝這個理解水平發展的動力都不具備。AI的確取得了大幅進展,但物體識別這類已經被解決了的問題,與理解意義的能力有着天壤之別。
電影《我,機器人》劇照。
這在現實世界中事關重大。我們如今所用的社交媒體平台背後的AI項目,會向用户發送那些為了獲得點擊率而胡編亂造的故事,從而為虛假新聞推波助瀾。因為它們無法理解新聞的內容,無法判斷其中的講述是真是假。
就連貌似平淡無奇的開車這件事,也比我們以為的要複雜得多。開車時,我們所做的95%的事情都是照章行事,很容易由機器來複制,但如果一位滑板少年突然衝到你的車前,你的正常反應和行為是目前的機器無法可靠完成的:根據全新的、預期之外的事件進行推理和行動,不僅僅依據由先前經驗所組成的巨大數據庫來採取行動,還要依據強大而富有靈活性地對世界的理解來採取行動。而且我們不能每次看到沒見過的東西就踩剎車,否則路上的一堆樹葉就會造成剎車和追尾。
目前還沒有值得信賴的達到真正無人駕駛水平的汽車。可能消費者能買到的最接近於無人駕駛水平的汽車,就是擁有自動巡航功能的特斯拉,但特斯拉也需要人類司機在駕駛過程中全程聚精會神。在天氣狀況良好的高速公路上,特斯拉的系統還是比較可靠的,但它在人流車輛密集的市區就沒那麼可靠了。在下着雨的曼哈頓或孟買的街道上,我們寧願將自己的性命交託給隨便哪個人類司機,也不願信任無人駕駛汽車。此項技術尚未成熟。正如豐田自動駕駛研發副總裁所言:“在波士頓的天氣和交通狀況下,搭無人駕駛汽車從劍橋到洛根機場,這樣的事情可能我這輩子都無法親身經歷了。”
同樣,説到電影情節或是報刊文章的中心思想,我們寧願相信初中生的理解,也不敢相信AI系統的判斷。就算我們再不喜歡給寶寶換尿布,也不敢想象,如今正在開發中的機器人能幫我們做這件事並且足夠可靠。
理想與現實之間,存在着一個被稱為AI鴻溝的大坑
構建有能力對世界進行推理的系統,有能力對周邊世界形成深刻理解的系統,才是朝向值得我們信任的AI系統前進的正確方向。
如何為機器賦予對世界產生更深刻理解的能力。業界若想進步,這是個必須解決的問題。沒有更加深刻的理解能力,我們永遠也無法獲得真正值得信任的AI。用技術行話來説,我們可能會陷入局部最大值,這種方法比已經嘗試過的任何類似的方法都要好,但是沒有好到可以將我們帶到想去的地方。
電影《機械姬》劇照。
現在,理想與現實之間,存在着一個被稱為AI鴻溝
(The AI Chasm)
的大坑。追根溯源,此大坑可一分為三。其中每一個都需要我們坦誠面對。第一個坑,我們稱之為“輕信坑”。人類在進化過程中,並沒有發展出在人類和機器之間進行區分的辨別能力,這就讓我們變得特別容易被愚弄。我們之所以認為計算機可以擁有智慧,是因為人類的整個進化過程都是與人為伴,而人類本身的行為是以思想、信仰和慾望等抽象概念為基礎的。從表面看來,機器的行為常常與人類行為有相似之處,於是我們會不假思索地認為機器也擁有和人類一樣的某種思維機制,而事實上,機器並不具備這樣的能力。我們總是控制不住自己,從認知的角度去看待機器
(“這台計算機認為我把文件刪除了”)
,根本不在意機器實際遵從的規則是多麼的簡單通透。但是,某些完全適合用在人類身上的推論,放到AI身上就會大錯特錯。為向社會心理學表達敬意,我們參考其中一條中心原則的稱謂,將此現象稱為“基本超歸因錯誤”。第二個坑,我們稱之為“虛幻進步坑”:誤以為AI解決了簡單問題,就相當於在難題上取得了進步。IBM對沃森的大肆吹捧,就屬於此類。沃森在Jeopardy!競技節目中獲勝,被認為是機器在語言理解方面走出了一大步,而實際上並非如此。
第三個坑,就是我們所稱的“魯棒坑”。在業界,我們時常目睹這樣的現象:每當人們找到了在某些時候能發揮作用的AI解決方案,他們就會假定,只要再稍加努力,再多一點數據,此係統就能在所有的時刻發揮作用。而事實並不見得如此。
若想跨越“AI鴻溝”這個大坑向前走,我們需要做到三件事:搞清楚AI技術的利害關係;想明白當前的系統為什麼解決不了問題;找到新策略。
工作機會、人身安全、社會結構,這些都與AI的發展息息相關。由此可見,老百姓和政府官員都迫切需要緊跟AI行業的最新進展,我們所有人都迫切需要了解怎樣用批判的眼光去審視AI。專業人士都知道,用統計學數據去糊弄普羅大眾是再簡單不過的事情。同樣,我們也要具備將AI宣傳與AI實情區分開的能力,搞清楚目前的AI能做到哪些事情,不能做到哪些事情。
關鍵在於,AI並非魔法,而是一套工程技術和算法,其中每一種技術和算法都存在自身的強項和弱點,適用於解決某些問題,但不能用於解決其他問題。我們寫作此書的主要原因之一,就是因為如今鋪天蓋地的AI相關報道,都讓人感覺如同白日做夢,單純以人們對AI憑空幻想出來的期待和信心為依據,卻與當下的實際技術能力沒有半點關聯。關於實現通用人工智能的難度有多大這個現實問題,在很大程度上來看,從公眾圍繞AI展開的討論中根本找不到一點點理解的蛛絲馬跡。
還是要明確一點:雖然澄清上述所有問題,需要拿出批判的態度來,但我們對AI全無半點憎惡,而是心懷熱愛。我們的整個職業生涯都沉浸其中,真心希望看到AI能以最快的速度向前發展。我們不希望AI從世界上消失,我們希望見證AI的成長,而且希望AI能突飛猛進地成長,這樣人們才能實實在在地依靠AI來解決問題。
電影《我,機器人》劇照。
關於AI的現狀,我們要道出一些逆耳忠言。但我們的批評意見是出於一片苦心,希望AI能往好的方向發展,而不是呼籲人們放棄對AI的追求。簡而言之,我們堅信,AI能掀起波及整個世界的重大變革,但在AI取得真正的進步之前,許多基本假設也需要改變。《如何創造可信的AI》並不是要唱衰整個行業
(雖然一些人可能會從這個角度加以理解)
,而是對停滯不前的原因進行診斷,併為我們怎樣才能做得更好給出處方。我們認為,AI前行的最佳方向,是要在人類心智的內在結構中去尋找線索。真正擁有智慧的機器,不必是人類的完美複製品,但任何一個用坦誠眼光審視AI的人都會認為,AI依然有許多需要向人類學習的地方,尤其要向小孩子學習。小孩子在許多方面都遠遠將機器甩在後面,因為小孩子天生就有吸收並理解新概念的能力。專業人士總是長篇大論地講述計算機在某方面擁有“超人類”能力,但人類的大腦依然在5個基本方面令計算機望塵莫及:我們能理解語言,我們能理解周遭世界,我們能靈活適應新環境,我們能快速學習新事物
(即使沒有大量數據)
,而且我們還能在不完整甚至自相矛盾的信息面前進行推理。在所有這些方面,目前的AI系統都還只是站在起跑線上原地踏步。我們還將指出,目前對於製造“白板”機器的痴迷是一個嚴重的錯誤。這些機器從零開始學習一切,完全依靠數據而非知識驅動。如果我們希望機器能做到同樣的事情,去推理、去理解語言、去理解周遭世界、去有效學習、以與人類相媲美的靈活性去適應新環境,我們就首先需要搞明白人類是如何做到這些的,搞明白我們人類的大腦究竟想要做什麼
(提示:不是深度學習擅長的那種對相關性的搜尋)
。也許只有這樣,面對挑戰迎頭直上,我們才能獲得AI迫切需要的重啓契機,打造出深度、可靠、值得信任的AI系統。用不了多久,AI就會像電力一樣普及到千家萬户。此時此刻,沒有什麼比修正AI的前行方向更為緊迫的任務了。
本文選自《如何創造可信的AI 》,較原文有刪節修改,小標題為編者所加,非原文所有。已獲得出版社授權刊發。
撰文 (美)蓋瑞·馬庫斯 歐內斯特·戴維斯
摘編 何安安
編輯 徐偉
編者按校對 劉軍