這個時代,距離迎來與人類“一樣聰明”機器智能方案,已提上日程。換句話説,我們終於在無數失敗的探索與破滅的期待之後,瞥見了一縷科幻小説般的AI發展曙光。
終有一天,也許是在幾十年之內,我們可能會使用人工神經網絡製造機器、以具備現實意義的方式模擬人類大腦。但到那個時候,具有如此威能的造物要如何保證安全?如何確保AI不會像人類這樣極易被外力所誘導與操控?
機器人,也會被催眠嗎?
AI領域的至高聖盃,無疑是實現與人類相信的智能水平。很多不熟悉這一專業領域的朋友往往被炒作性質的報道所誤導,以為現代AI已經具備極高的智能。
但事實上,世界上還沒有任何一台機器人能夠直接走進廚房,在無需外力幫助的前提下泡出一杯香濃的咖啡。
為什麼這麼簡單的工作也能難倒AI?因為它還不具備真正的思考能力。AI並沒有“思維的舞台”,也創造不出基於記憶及激勵因素的新穎思想。相反,它只是根據被告知的方式,將輸入內容轉換為輸出結果。
但也有一些AI研究人員認為,在深度學習之外,還有其他能夠實現更趨“自然”的AI形式的途徑。
通往人工通用智能(AGI,普遍認為AGI就是具備人類智能水平的AI)的常規道路之一,就是使用人工神經網絡模擬人腦的運作方式。但既然是要模擬人腦,那麼機器智能是否也會被催眠師所俘獲?
有殺手機器人,就有殺手催眠機器人
有些人害怕“終結者”這樣毫無人性的機器會突然闖進家門。但更恐怖的,也許反而是機器身上較為“人性”的一面。
作為極富爭議的領域之一,催眠術似乎擁有着神奇的力量。雖然不少學者都在發表論文質疑催眠術的實際效果,但根據最近的研究結論,我們確實可以通過某個特定的字眼轉變人類的意識狀態。當然,這種事並不是百試百靈,其中多少有些“技巧”的成分在。
但如果把催眠術的這種特定效用推廣開來,我們可能真的需要擔心,未來人類打造的先進機器人是不是也會受到類似的影響。
一般的玩笑式催眠當然無傷大雅,但如果恐怖分子對交通信號燈的指控系統進行催眠,甚至藉此入侵數百萬輛自動駕駛汽車,引發的後果將不堪設想。
這麼説,是不是有點危言聳聽?
並不全是。就目前來看,機器學習中的偏差/偏見已經成為一大核心難題。在向機器提供大量人工造成或標記的數據時,其中不可避免要存在某些偏差/偏見因素。正因為如此,GPT-3對穆斯林建立起刻板印象,麻省理工也在使用Reddit數據進行訓練後得到了一個“精神病患者”性質的AI模型。
事實上,AI系統採取的學習與思考方式越是趨近於人類,就越是可能像人類的頭腦那樣受到外部誘導的影響。
這種威脅真實存在。也許有一天,黑客們會使用對傳統計算機毫無影響的批量信號衝擊AI系統,藉此操縱其思維方式。
能夠理解自然語音的AI系統甚至可能受到音頻操控,具備計算機視覺功能的AI系統則可能被精心設計的畫面所矇蔽。從理論出發,具備人類智能的AI應該也會像我們一樣在催眠之下迷失自我。