用人工智慧打擊人工智慧
動畫《成龍歷險記》中“老爹”這一角色曾有一句名言:“要用魔法擊敗魔法。”而隨著 AI 技術的發展以及部分濫用,這句話也被應用在了人工智慧上,一場新的軍備競賽開始了:人工智慧 vs 人工智慧。
人工智慧在打擊未遂信用卡欺詐方面取得了重大進展:我們大多數人都收到過信用卡髮卡機構發來的訊息,以確認網路犯罪分子的未遂購買行為。利用機器學習來編譯“合成身份”(Synthetic identities),顯示其信用卡持有人的通常行為模式,金融機構可以實時發現異常行為。然而不幸的是,網路罪犯同樣也利用人工智慧建立自己的合成身份,產生的結果也足夠真實,足以愚弄發現異常行為的人工智慧。
這場人工智慧之戰——也是打擊網路安全欺詐者,正在假新聞、假影片和假音訊的戰壕中展開。就這樣,一場新的軍備競賽開始了:人工智慧 vs 人工智慧。
Jupiter Research 的 Steffen Sorrell 表示,合成身份是信用卡欺詐“容易實現的目標”。根據 Jupiter Research 最新的線上支付欺詐報告,到 2024 年,合成身份推動線上支付欺詐給壞人造成 2000 億美元的損失。對好人來說,這也將推動欺詐檢測市場同期達到 100 億美元,高於今年的 85 億美元。
“線上欺詐發生在高度發達的、存在分工的生態系統中,”位於美國愛達荷州博伊西的基於 ID 的反欺詐企業 Kount Inc 的人工智慧科學主管 Josh Johnston 說,網路犯罪分子專門從事不同型別的犯罪,從手動“刷卡”到用人工智慧建立合成身份。Johnston 說:“還有一些人針對慈善機構和數字商品商戶等軟目標測試被盜的卡號和憑證,以確保它們沒有被取消。”他聲稱,在暗網的網路黑市中,用不了一美元就可以買到具有準確姓名、地址和 CVV (卡片驗證值)的大額信用卡卡號。
Johnston 說:“欺詐者可以購買這些驗證卡的清單,並透過任意數量的線上計劃從中獲利。“這些犯罪分子大量使用人工智慧,他們也像合法開發者一樣,在網際網路論壇上分享軟體工具和技巧。”
根據 Johnston 的說法,這些大量 Fake 使用了所有型別的人工智慧和其他自動化技術,從透過組合真實姓名和隨機數字來生成並註冊真實的電子郵件地址的小程式,到透過結合多個真實人物的資訊來建立合成身份的大型機器學習程式。如果欺詐檢測器檢查一個合成身份,它們通常會發現一個虛假的電子郵件賬戶、Facebook 頁面、以及其他顯示合成身份細節的網際網路形象已經被欺詐者記錄下來。
因此,網路安全程式設計師的欺詐檢測技能和黑帽駭客的欺詐創造技能形成了交鋒。
這些欺詐創造技能不僅用於信用卡詐騙,還擴充套件到影象和語音識別領域,在這些領域中,這些工具被反過來用於製造假新聞、假影片和假音訊。事實上,據 Juniper Research 的 Nick Maynard 稱,使用假音訊的匯款欺詐比線上支付欺詐增長得更快。他表示,到 2024 年,這一領域的損失預計將增長 130% 。
Maynard 說:“機器學習對於遏制欺詐越來越重要。”
Deepfake 是一場打地鼠遊戲,因為每一種人工智慧(無論是好的還是壞的)都會暫時佔據上風。“這是一場貓捉老鼠的遊戲,”Johnston 說,他用一個變數來衡量成敗,該變數他稱之為“摩擦”,這種變數會減緩一方或另一方的速度,直到一種新形式的“潤滑”可以讓一方領先於另一方。
“欺詐者會對摩擦做出反應,就像網際網路上的合法使用者一樣。當我們佔了上風,給欺詐者造成太多摩擦時,他們就會轉向一個不受欺詐檢測器保護的軟目標。一個好的欺詐解決方案會增加壞人的摩擦,減少好客戶的摩擦。然而,一方的進步,會導致另一方面的策略發生轉變。”
Johnston 說,當網際網路剛剛出現的時候,網上就沒有什麼值得盜竊的東西,因此欺詐者大多在網上測試信用卡,然後透過親自購買商品來變現而獲利。如今,線上交易對壞人來說,和對我們其他人一樣方便。信用卡內建安全晶片的普遍採用,使得面對面交易成為欺詐者的一大風險,其結果是,欺詐活動越來越多地轉移到網上。因此,Johnston 表示,欺詐檢測人工智慧正在使用更詳細的分析。
Johnston 稱:“在不放棄農場的情況下,我們在 2020 年成功防欺詐的方法依賴於跨越大型資料集來尋找欺詐的固有模式。壞人可以竊取你所有的秘密,但他們無法模仿你的品味、行為和歷史。歸根結底,欺詐者不得不透過欺詐手段才能拿到有價值的東西,只要有正確的資料,我們就能分辨出欺詐者和好客戶。”
假新聞 / 假影片 / 假音訊
人工智慧已經被用來自動建立假新聞故事。例如,OpenAI 的原型 GPT-2 文字生成系統使用機器學習來翻譯文字、回答問題和編寫假新聞。當“唐納德·特朗普意外地……俄羅斯已向美國宣戰”這句話被輸入 GPT-2 後,它就創造了下面這則假新聞故事:
在唐納德·特朗普意外向空中發射導彈後,俄羅斯向美國宣戰。俄羅斯表示,已經“確定導彈的彈道,並將採取必要措施,確保俄羅斯民眾和該國戰略核力量的安全。”白宮方面稱,它對俄羅斯違反《中程導彈條約》的行為表示“極為關切”。
更多關於 GPT-2 產生假新聞的細節,可以在 OpenAI 網站上的樣本中找到。
紐約州立大學水牛城分校(University at Buffalo)科學與工程學教授 David Doermann 說,“像 OpenAI 這樣的開源聯盟正在向我們展示未來的欺詐行為可能是什麼樣子的:使用自動化工具可以擴充套件到大規模攻擊。目前,Fake 佔據了上風,但是我們需要縮小差距,以便我們能夠迅速超越它們。這種情況變得很像惡意軟體,駭客利用的每個新漏洞,都由網路安全程式設計師來修補。有朝一日,對於造假者來說,可能會因為成本太過高昂而無法繼續追求下去,但更有可能的是,這將是一場拉鋸戰,沒有明確的贏家。”
同時,根據 Doermann 的說法,好人需要教育公眾,對網際網路上的一切要持保留態度;如果聽起來太好(或太壞)而不像是真的,那麼它可能就是真的。Doermann 說,“這並不是一項不可能完成的任務。例如,現在大多數人都知道,不要點選來源不明的附件,媒體也知道如何在垃圾郵件到達收件箱之前識別出來並過濾掉它們,”同樣,已知的贗品甚至可能的贗品也可以貼上這樣的標籤,以提醒人們不要太當真。在某些情況下,比如兒童色情製品,贗品可以完全被過濾掉,而不會侵犯第一修正案的權利。
聯合國區域間犯罪和司法研究所(United Nations International Crime and Justice Research Institute,UNICRI)人工智慧和機器人中心負責人 Irakli Beridze 對此表示贊同。“Deepfake 只是‘被操控’新聞問題的一個新維度。”Beridze 說,“這項技術一直存在,但直到最近才被‘民主化’,透過眾多的應用程式變得更容易使用,使那些沒有什麼技術訣竅的人,也能創造出自己的 Deepfake。Deepfake 的蔓延帶來了影響深遠的挑戰,它有可能會威脅到國家安全,包括威脅到選舉和公共安全,以及破壞外交教、民主、公共話語和新聞業。”
據 Beridze 稱,許多組織都在努力開發軟體,以便更容易識別出 Deepfake。她和 Doermann 聲稱,識別 Deepfake 的技術工具已存在,只需進一步開發即可成為“交鑰匙”的解決方案。與此同時,雙方都認為,需要做更多的工作來降低普通消費者的輕信率。正如垃圾郵件問題在公眾意識中提到提高一樣,對 Deepfake 的認識也需要提高。Beridze 稱之為“對消費者資深的批判性分析”。
就在去年,聯合國區域間犯罪和司法研究所在海牙舉行的“和平、正義與安全”駭客松(Hackathon for Peace, Justice and Security)會議上提出了一個 Deepfake 的挑戰。比賽要求參賽者建立用於檢測被操縱影片的工具,這些工具可用於支援執法、安全機構、司法、媒體和公眾。
Beridze 說:“獲勝團隊提出了一個用於影象分類的神經網路架構和一個簡化使用者互動的 Web 應用程式。這個解決方案作為概念的技術證明,隨後在 2019 年的技術研討會上得到了完善。到 2020 年,我們將積極努力,將這項技術從概念驗證推廣到全面應用。”
但是,Beridze 警告說,對於 Deepfake 這個問題還沒有快速的解決辦法。他解釋說,技術變化的步伐越來越快,需要更全面的的解決方案來監控技術進步和使用技術的 Deepfake,從而透過預測明年的更先進技術來領先於看不見的問題。
Beridze 稱,“這是一個需要多方利益相關者和跨部門合作的迴圈過程。在這方面,聯合國中心的目標之一是增加和促進與整個公共部門、工業界、學術界以及相關安全實體、情報機構和反恐機構等利益相關者的知識共享和關係建設,以幫助當局跟上步伐。在這樣做的時候,我們為制定、部署和使用合法、可信、尊重人權、民主、正義和法治的解決方案提供指導。”
假影片和假音訊是由不良的人工智慧驅動的最新欺詐創新。可以說,公眾對這類假新聞的認識始於 2016 年大選年,當時“假新聞”成為一個流行詞。大多數政治影片都是明顯的 Deepfake,知識一次性的模仿,只不過是用“愚人節”版的演講取代了政客們的嘴唇。然而,透過使用機器學習重新利用人工智慧面部識別工具,程式設計師創造了即使是最老練的觀眾也能愚弄的 Deepfake 假影片。
Doermann 曾經是美國國防高等研究計劃署(Defense Advance Research Project Agency,DARPA)MediFor(媒體取證,Media Forensics)計劃的專案經理,他表示,DARPA 已經為政府機構獲得的影象開發了自動取證工具,這些工具曾經是手動的,需要專家級別才能使用,但後來被安裝到了執行認證的人工智慧中。
“早在 Deepfake 成為公眾問題之前,我們就開發出了檢測 Deepfake 的人工智慧工具。我們擔心恐怖分子和外國政府的假情報來源,我們的目標是將人類專家用來識別 Deepfake 的方法完全自動化。這樣,理想情況下,政府收集的每一種基於影象的媒體都可以理所當然的透過我們的鑑定器來鑑定。”Doermann 說。
MediFor 正在進行中,但已經進入將其基礎研究結果整合到最終自動化工具中的階段。與此同時,一個名為 SemaFor (語義取證)的新專案接過了基礎研究的接力棒。SemaFor 的目標是獲取被識別為假影象,並應用人工智慧歸因演算法來推斷媒體的來源,同時使用特徵演算法來確定 Deepfake 是出於惡意目的(比如造謠活動)還是處於良性目的(如娛樂)。
對公眾而言,第一批與真正的總統競選影片難以區分的 Deepfake 影片很可能會在 2020 年美國總統大選期間浮出水面。假音訊已經被網路犯罪分子成功用於匯款欺詐。例如,《華爾街日報》(The Wall Street Journal)報道稱,一通模仿公司執行長聲音的 Deepfake 電話欺騙了該公司,誘騙該公司將 24.3 萬美元匯給了網路罪犯。Deepfake 最終被發現,但這些錢早已透過電匯網路消失,當局無法追查。
用於欺詐檢測的“大銅鈴”是一種驗證器,可以及時識別並實時標註“Fake”。但不幸的是,其結果很可能招來欺詐者的人工智慧報復,旨在實時愚弄驗證者。