兵以詐立。智能時代,顛覆性技術不斷湧現,戰爭欺騙手段和形式亦不斷出新。“如果掌握你的數據,我就能創造出各種方法欺騙你的人工智能系統。”研究實驗表明,智能化戰爭中一旦一方獲得對手的人工智能訓練數據集,就能夠找到其弱點和盲區並實施欺騙,人工智能必須警惕數據陷阱。
目前來看,人工智能分析處理數據的速度遠超人類分析師,並且能夠找出人腦難以發現的行為模式和規律,但是也會犯下人腦不會犯的錯誤。原因在於,機器學習算法必須依靠大量數據進行訓練,數據之於人工智能就如同血液之於人類,共享數據比設計算法更難。如果數據集過小、數據不準或是被對手惡意篡改,那麼機器學習效果就會大打折扣,甚至被誤導出現誤判。尤其在國家安全和軍事領域,有害數據會造成嚴重後果。一旦人工智能的訓練數據集被對手掌握,對手就會設計數據陷阱、實施欺騙,提供假數據並誘導人工智能學習錯誤數據。更嚴重的是,由於機器學習算法的內在工作機理晦澀難懂,人們通常並不清楚人工智能為何會出錯,特別是在沒有發生災難性後果的情況下,甚至難以察覺人工智能出錯,對人工智能陷入數據陷阱茫然不知。
那麼,應如何避開數據陷阱呢?首先,需要人腦幹預。只有人具備給數據分類打標籤的能力,因此不能簡單地把數據丟給機器算法,寄希望於人工智能解決所有問題而無須人腦幹預。如果只提供大量數據而缺乏能夠辨別數據的“聰明人腦”,那麼人工智能只能提供機械的答案,而非人們需要的正確答案。人腦幹預不僅能夠確保人工智能獲得正確的數據,還能夠檢查其是否在學習正確的數據。其次,打造跨領域團隊。能夠避開數據陷阱的“聰明人腦”必須來自跨領域團隊,計算機專家、程序員、大數據專家和人工智能專家必須與相關領域經驗豐富的專業人員密切合作。今後,人工智能不斷髮展成熟後將可能直接為作戰人員提供實時情報等,這就需要作戰人員不斷為“聰明人腦”團隊提供反饋,以便及時更新和修正數據。再次,進行多源數據互查。使用一種傳感器偵察目標很容易被對手矇蔽,因此要採用視覺、雷達和紅外等多種傳感器偵測同一目標,將不同來源的數據進行對比核驗,才能夠辨別真偽、發現隱藏的騙局。再者,給數據分類打標籤。當前,即使高級的人工智能也會犯下荒誕的低級錯誤,甚至會錯把牙刷認作棒球杆。因此不能給機器學習提供未經加工的原始數據,尤其在訓練初期更是如此,應該為機器算法提供正確分類、打了標籤的真實數據,方能檢驗人工智能的結論是否正確,確保人工智能輔助決策準確、高效。最後,採取對抗式學習。組建智能藍軍,研發人工智能對手,讓互為對手、彼此對抗的人工智能展開互搏,在鬥智過程中進行對抗式學習,在對抗式學習中提高識別數據陷阱的能力,實現以智取勝。總之,當前人工智能還離不開人腦控制,避免數據陷阱最終還要靠人的經驗和智慧。
(解放軍報)
找記者、求報道、求幫助,各大應用市場下載“齊魯壹點”APP或搜索微信小程序“壹點情報站”,全省600多位主流媒體記者在線等你來報料! 我要報料