30秒快讀
1、“人工智能發展道路還很漫長,針對人工智能和通信網絡的結合,我們需要做好各種準備。”在7月10日2020世界人工智能大會雲端峯會的“AI新基建 5G新機遇”主題論壇中,北京郵電大學教授張勇表示,在電信運營商網絡智能化方面,深度神經網絡已經成為主流方案,但他同時指出,安全問題使得AI在通信網絡應用時很難得到信任。
2、“當前已經出現一些’數據投毒’’逃逸攻擊’等專門攻擊AI系統的手段。”他強調。在自動駕駛領域,“數據投毒”可導致車輛違反交通規則甚至造成交通事故;在軍事領域,通過信息偽裝的方式可誘導自主性武器啓動或攻擊,其帶來的風險是毀滅性的。
張勇提出AI在5G網絡智能化應用中面臨的五大挑戰。
挑戰一
壞數據會產生“偏見”
數據、算力、算法,深度學習三大關鍵詞,其中數據往往被認為是人工智能最重要的驅動力,但也正因如此,“壞”的數據,或者“不完善”的數據,會直接影響計算結果。不久前,美國杜克大學研究人員發明一種新的圖像識別算法PULSE,它可以將低分辨圖片變成高清圖片,但有人將奧巴馬打了馬賽克的照片輸入後,復原的照片卻有了白人的特徵。圖靈獎得主、人工智能標杆性人物 Yann LeCun認為,這不僅是算法的問題,而是訓練時使用的數據產生了“偏見”。
圖源/網絡
“數據不完善,不管是數據源數量,還是已有數據的指標深度都存在着不足,使用這些數據應用智能運維效果不佳,甚至會造成決策錯誤。”張勇認為,當前存在標記數據缺乏、數據不平衡/異常標註廣泛存在、仿真數據難以使人信服等數據源問題,這些都會影響AI對智能通信網絡的優化。
挑戰二
目前的AI能力還很“羸弱”
“通信網絡對可靠性穩定性的要求,遠比計算機完成人臉識別、語音識別的要求要高。”雖然AI在語音、視頻、圖像、文本等領域已經獲得引人注目的成就,但應用到網絡通信方面還存在着大量困難,張勇舉了一個例子,研究團隊在通過對網絡流量數據進行網絡攻擊行為檢測,在一個公開數據集上進行分類檢測得到一個很好的模型。換一個數據集,同樣包含一樣的攻擊行為,檢測效果就非常差。
圖源/Pixabay
“目前的AI還是一種弱人工智能階段,需要耗費大量的計算資源,才可以獲得一個人類很容易擁有的能力。”此外,張勇還指出,AI缺乏邏輯推理能力,那麼在網絡智能運維上所需要的一些邏輯推理問題沒有辦法開展,而且各種模型無法互通,獲得的知識也無法傳遞。
挑戰三
“黑盒子”無法獲得信任
“黑盒子”是當前深度學習產業化最大的攔路虎。由於缺乏數理基礎的支撐,AI模型的好壞以及原因,通常都是個“謎”。因此,在需要高可靠性的通信網絡場景中,AI往往得不到信任。
圖源/Pixabay
張勇團隊在和一些企業合作時,準備用AI技術做無線信號識別,對方便提出,能不能不要用深度學習,“因為感覺這個不是很可靠。”這為AI技術在網絡智能化應用帶來挑戰:深度學習如何在網絡智能化上面保持保證高度可靠性,如何説服使用者信任它?
挑戰四
動態資源分配可能對網絡產生影響
剛剛於北京時間7月3日晚凍結的第一個5G演進版標準R16,再次把網絡自動化提上日程。為了實現網絡自動化和智能化,國際標準組織3GPP定義了5G網絡自動化的通用架構,新增了網絡數據分析功能,作為大數據收集和智能分析的承載實體,不僅能收集數據,還具備智能分析的能力,包括計算模型訓練、推理判斷與預測等等。
圖源/網絡
因此,在很多對未來5G社會的設想中,使用者可以按需分配、按需使用、按需計費,這個要求必然只能通過AI來完成。但現實情況是,現有網絡場景遠比數學模型場景複雜,目前網絡資源分配大多使用強化學習方法,張勇指出,在強化學習的探索過程中間,如果在現網上直接測試,很容易對網絡性能帶來負面影響。
於是,研究者遭遇兩難:如果先在測試網絡上開展工作,想要得到好的結果,需要提前做大量實驗,但通信場景之多樣性遠超谷歌AlphaGo Zero遇到的情況,訓練過程中需要的資源、數據量和計算量不可想像,也無法承受。
挑戰五
小心深度學習被用來“對抗攻擊”
深度學習對產業發展帶來機遇,並日益普及,但也使得安全問題被提上了議事日程。有研究表明,深度神經網為網絡安全帶來跨越式的發展機遇,但也為攻擊者提供了新的攻擊面——針對AI模型完整型發起的攻擊,即所謂的“對抗攻擊”。
“數據投毒”和“逃逸攻擊”是兩種常見的對抗攻擊。“數據投毒”是指攻擊者通過在訓練數據里加入偽裝數據、惡意樣本等行為來破壞數據的完整性,進而導致訓練的算法模型決策出現偏差。
根據中國信通院發佈的《人工智能數據安全白皮書(2019)》,“數據投毒”危害巨大。在自動駕駛領域,“數據投毒”可導致車輛違反交通規則甚至造成交通事故;在軍事領域,通過信息偽裝的方式可誘導自主性武器啓動或攻擊,從而帶來毀滅性風險。