當地時間3月16日,烏克蘭電視台“烏克蘭24”在播出新聞直播節目時,下方滾動的字幕條顯示“澤連斯基呼籲烏克蘭人放下武器”等內容。不過該電視台隨後聲明稱,“黑客入侵了烏克蘭24電視台的字幕條”。澤連斯基本人也很快駁斥了所謂“投降”的呼籲。
同時,在一條被證實是造假的視頻中,澤連斯基公開接受了俄方提出的要求,並督促烏克蘭人在俄國人面前放下武器。事件發生後,烏克蘭國防部在其推特官方賬號發佈了澤連斯基的視頻,並配文稱“請注意,這是不可能的。”此後,社交平台臉書和推特宣佈刪除“澤連斯基宣佈向俄羅斯投降”的造假視頻。
此外,社交平台推特上日前也出現了一段似乎顯示是俄羅斯總統普京宣佈投降的視頻。但事實上,這是一段經過剪輯處理後釋放假消息的視頻。有外媒注意到,這段造假的視頻取自普京早些時候的講話,與2月21日上傳到俄總統官方網站的一段視頻相匹配,普京在該視頻中談到了這次俄烏衝突爆發前的烏克蘭局勢。剪輯片段中的音軌發音聽起來不像普京,而且嘴唇的動作與講話不同步。
“深度造假”視頻:現代社會的“新型武器”
美專家分析稱,這類視頻屬於深度造假(deepfake)視頻,是一種看似有説服力,實際上是虛假的視頻和音頻。據悉,深度造假技術是一種“生成式對抗網絡”的人工智能(AI)技術。深度造假視頻能通過使用人工智能等技術,將圖像或視頻中的人物替換成另一個人,可以展示一個真人做或説一些他們沒有做或説過的事情,具有高度的視覺和聽覺欺騙效果。
↑一條“澤連斯基宣佈放下武器”的視頻被認為是“深度造假”視頻。
加州大學伯克利分校教授、數字取證專家哈尼·法裏德分析這條視頻後指出,視頻裏有幾個疑點可以證明其屬於深度造假視頻,而非真實視頻。
他説:“首先,視頻裏的錄音音頻質量較低、分辨率較低。”哈尼分析稱,這是一個常見的“偽裝”技巧,用來掩蓋“深度造假”時產生的失真。其次,他分析稱視頻中的澤連斯基全程沒有擺動過手臂,眼睛一直直勾勾地看着前方,看上去十分僵硬。哈尼解釋説:“要在深度造假視頻中作出令人信服的、符合人體運動規律的動作是非常困難的。”
《深度造假》一書的作者妮娜認為,“澤連斯基宣佈向俄羅斯投降”這一視頻的製作合成相對而言比較粗糙,所以很容易被識破。不過她警告稱,這條視頻不是個例。“在此次俄烏衝突中,雙方都有各種形式的虛假信息,只不過還未被揭穿。”妮娜認為,這些虛假信息會侵蝕民眾對媒體的信任,讓人們相信一切都是可以偽造的。“這是一種現代社會的‘新型武器’,能夠完全實現以假亂真的效果,讓更多信息變得真假難辨。”
以AI治AI,科學家正研發能識別虛假內容的工具
據悉,這已經不是第一次有政治人物被製作成深度造假視頻了。據報道,2018年,美國導演喬丹·皮爾曾利用人工智能技術“讓美國前總統奧巴馬發言”對特朗普進行抨擊。
↑美國導演喬丹·皮爾曾利用AI技術“讓奧巴馬發言”。
隨着人工智能技術的發展,人類甚至可以讓去世的親人“死而復生”。知名家譜網站MyHeritage就曾推出Deep Nostalgia功能,用户只需要通過該網站上傳去世親人的照片,算法會自動分析照片中人的方位,確定他們的頭部和眼睛看向的方向,然後自動選擇一個匹配的視頻,用這種方式創建短視頻動畫,使照片中的人物變得生動起來。
然而這種技術技若被非法運用,會造成惡劣影響。據悉,不法分子也會使用該項技術合成兒童性虐待影像、名人色情視頻、製作假新聞,並利用深度造假視頻進行金融詐騙等。
而對於這種日漸發展的“深度”造假技術,科學家們也紛紛出手開發鑑假工具,以幫助人們分清真假。
據報道,紐約州立大學布法羅分校的研究人員稱他們已經開發出一種可用於鑑別“深度造假”技術合成圖像的工具。該工具能通過仔細檢查分析目標人物的眼睛、眼球和每個眼球中反射的光,找出他們在反射光的形狀、強度和其他特徵方面存在的潛在差異,從而鑑別出虛假圖像。
谷歌母公司Alphabet旗下的Jigsaw也聯手谷歌、馬里蘭大學、伯克利大學等多家研究機構,開發了一個名為Assembler的實驗平台,通過檢測圖像是否經歷了複製粘貼、亮度修改等幫助人們快速判斷圖片的真假。
紅星新聞記者 範旭 實習記者 黎謹睿
編輯 張尋