有沒有可能,其實某些人工智慧的例項並不像我們想象的那麼智慧?
一組計算機研究生報告稱,在對幾十種被譽為人工研究里程碑的資訊檢索演算法進行了更深入的研究之後,他們發現這些演算法實際上遠沒有它們宣稱的那樣具有革命性。事實上,在這些演算法中使用的人工智慧通常只是對之前建立的例程進行了微小的調整而已。
麻省理工學院的研究生研究員Davis Blalock說,在他的團隊檢驗了81種開發神經網路的方法(這些方法被普遍認為優於早期的研究成果)之後,他們並不能確定這些方法是否真的取得了任何進步。
Blalock說,“已經有50份檔案了,很明顯,甚至連最先進的技術是什麼都不清楚。”
過去的十年中,人工智慧進步的大部分功勞都在於硬體的改善,比如圖形處理器、計算機處理單元、相機等硬體的進步,這些硬體進步使得複雜搜尋專案、面部識別、攝影、語言翻譯、語音識別等專案可以以指數形式增長,並使視覺化虛擬現實遊戲取得了突破。
當然,演算法的改進對此也有幫助,但麻省理工學院的研究小組表示,至少人工智慧演算法的某些進步是虛假的。
例如,他們發現,只要對此前建立的人工智慧演算法做一些小的調整,舊的程式本質上就可以像被高度吹捧的“新改進”程式一樣工作。在一些情況下,新的人工智慧模型實際上還不如舊的方法。
《科學》雜誌上的一篇文章對該研究進行了評估,文章引用了一項元分析,直到2019年,該元分析對搜尋引擎使用的資訊檢索演算法進行了長達10年的分析,分析發現“高分實際上是在2009年設定的。”另一項對流媒體服務使用的神經網路推薦系統的研究發現,在使用的7個程式中,有6個沒有改進多年前設計的簡單演算法。
Blalock指出,由於比較演算法的技術存在不一致性,使得一種方法優於另一種方法的說法的準確性還有待商榷。
事實上,麻省理工學院(MIT)的一位計算機科學家表示,過去10年人工智慧某些領域明顯缺乏重大進展,很大程度上要歸咎於無法恰當地比較和評估那些相互競爭的方法。Blalock的博士導師約翰·古塔格(John Guttag)說,“這是老生常談了對吧?如果你無法衡量某件事,就很難讓它變得更好。”
卡內基梅隆大學(Carnegie Mellon University)的計算機科學家濟科•科爾特(Zico Kolter)推測,將自己的名字與一種新演算法聯絡起來,比僅僅修補和調整舊的方法有更大的動機和社會回報。
他研究了影象識別模型,這些模型被程式設計用來抵禦駭客的對抗性攻擊,這種攻擊會使用經過巧妙修改的程式碼來繞過系統安全。對此一種被稱為投影梯度下降(PGD, projected gradient descent)的早期方法會透過訓練人工智慧系統來區分程式碼的真實和虛假示例來抵禦這種攻擊,人們曾經認為這是一種可靠的方法,但這種方法被更新更好的協議繞過了。然而,科爾特的研究小組發現,對舊的PGD方法進行簡單的調整後,它的有效性與新方法相比可謂旗鼓相當。
科爾特說:“很明顯,PGD實際上就是正確的演算法,這是顯而易見的,人們只是希望找到更繁瑣的解決方案。”
編譯/前瞻經濟學人APP資訊組
參考資料:https://techxplore.com/news/2020-06-ai-advances-over-hyped.html