門檻越來越低,我們的“臉”就這樣輕易被偷走了...

  Deepfake是一種換臉技術,可以將圖片或影片中A的臉換到B的頭上。其名字由深度機器學習(deep machine learning)和假照片(fake photo)組合而成。這項技術不需要操作者具備深厚的專業知識,只要收集到足夠素材,AI就可以完成。Deepfake換臉效果逼真,讓人難以分辨真假,這也引發了眾多倫理和隱私問題。

  史泰龍和施瓦辛格兩位好萊塢頂級流量功夫巨星最近一次合體出現在大銀幕上,還是在2013年上映的《金蟬脫殼》中,這讓不少影迷意猶未盡。11月22日,一篇報道稱,國外影片網站上一部名為《Step Brother》的電影短片,藉助Deepfake技術,把兩位巨星的面部替換到了兩名小眾演員臉上,而且人臉表情自然,毫無痕跡,這讓不少網友驚歎:太恐怖。此外,最近的國內熱播劇《了不起的兒科醫生》中也使用了這種AI換臉技術。

  根據安全分析公司Sensity最新調查結果,自2018年12月以來,Deepfake線上造假影片的數量大約每6個月翻一番,而截至2020年6月,造假影片已經多達49081個,比2019年7月增長了330%。

  

門檻越來越低,我們的“臉”就這樣輕易被偷走了...

  Deepfake技術讓影片換臉變得越來越簡單,如何打假“李鬼”,讓其避免成為假影片的“幫兇”已成為當務之急。

  用影片“大變活人”分幾步

  Deepfake這種技術堪稱現代網路“易容術”,是比PS強大很多的動態換臉技術。“目前Deepfake技術已經很成熟了,主要技術分為兩個部分,自動編碼器和生成對抗網路。”天津大學智慧與計算學部教授翁仲銘介紹。

  自動編碼器是一種神經網路技術,就是把一個人的照片特徵抓取出來,然後用數字代表。但是抓取一個人的面部特徵時,不可能抓取所有狀態下的特徵,比如說話、哭和笑等,那麼就必須將沒有的表情用數字模擬的方式展現出來。透過訓練,就可以找出一個最好的用數學方式來呈現照片特徵的編碼器。

  有編碼器就需要解碼器,解碼器會把一串串數字再還原成照片。不同解碼器可以在演員身上還原不同照片,比如史泰龍解碼器可以還原史泰龍照片,而還原施瓦辛格照片則需要施瓦辛格的解碼器。具體操作是先使用編碼器分別抽取小眾演員和史泰龍的特徵,而後再使用史泰龍的解碼器還原,從而得到史泰龍的臉和小眾演員的表情。

  “Deepfake就是在設計、訓練精準的編碼器和解碼器。”翁仲銘介紹,因為編碼器是抓取照片的特徵,所以基本上只需要一套就可以了。可是解碼器就需要訓練很久,因為把一連串的數字特徵,拼接到小眾演員身上,而且要變得很像,就需要長時間訓練。以換成史泰龍的臉為例,這個過程需要輸入史泰龍600—3000張照片並經過48—72小時來訓練深度模型。

  

門檻越來越低,我們的“臉”就這樣輕易被偷走了...

  “自動編碼器做出的照片是否自然真實還需要去判別把關,這就需要生成對抗網路技術。”翁仲銘解釋,這包括兩個機器學習模型,分別為生成網路和辨別網路。生成網路扮演“造假者”,在模型訓練後產生偽造影片;而辨別網路則扮演“檢測者”,不斷地檢視假影片,直至它再辨別不了結果是假的。資料越多,效果越理想,假影片越真實。

  換臉門檻越來越低

  其實這種動態換臉技術最早是被用於影視後期製作,但是以前影視作品中的人臉交換操作起來非常複雜,只有專業影片剪輯師和公共閘道器介面專家才能完成,並且需要花費大量時間和精力。

  但隨著Deepfake這樣公開且輕量化技術的出現,這個技術的使用門檻也越來越低了。特別是設計架構Deepfake技術的“大神”將程式碼上傳到了一個自由共享程式碼的網站Github,讓這項技術更容易獲得。

  利用Deepfake技術,即使是一個對影片剪輯一竅不通的外行,也只需一個強大的GPU(圖形處理器)和上百張人物樣圖,輸入至少一個演算法,就能完成人臉交換,並且可以製作出非常逼真的影片效果。“普通人在經過一段時間的學習以後,完全能夠掌握這項技術。”翁仲銘感嘆。

  “雖然現在這項技術操作起來簡便,但是原來要用軟體實現這個過程是非常艱難的。”翁仲銘解釋,影片中人是動態的,比如一個60幀(fps)的影片中,每秒鐘畫面更新60次,如果是PS的話需要處理60張靜態圖片,然後將其前後連線起來形成一個動態圖。一個短影片動輒數分鐘,甚至十多分鐘,如果按照一分鐘處理3600張計算,一個幾分鐘的短片也要處理多達上萬張照片,所以需要強大算力的GPU來支撐。

  翁仲銘認為,近些年隨著GPU的發展,其算力越來越強大,也使得Deepfake技術處理照片越來越輕鬆,使用越來越方便。這可能也是2018年12月以來,造假影片成倍增長的原因之一。

  以技制技打假“李鬼”還不夠

  如此強大的“黑科技”採用了最先進的人工智慧技術,透過比較簡單的運算,就有可能生成以假亂真的影片。但是Deepfake技術在執行幾天之後,就遭到了唾棄,被全球封禁,還被世人稱為“最邪惡”的技術。

  因為太過以假亂真,其破壞力不可估量。事實證明,人們的擔心並非杞人憂天。Deepfake第一次亮相就是將《神奇女俠》蓋爾·加朵的臉,嫁接到了一部成人電影女主角身上。此外由Deepfake製作的假影片已引發多起刑事案件,甚至捲入政治紛爭。

  不過再完美的技術也不是無懈可擊的,專家們提出了幾種辨識Deepfake換臉影片的方法:比如眨眼率,透過Deepfake製作的物件的眨眼率少於正常人;語音和嘴唇運動的同步狀況;情緒不符合;模糊的痕跡、畫面停頓或變色。不過翁仲銘表示,這些方法,Deepfake透過加強對樣本的學習,都可以解決,遲早會有人可以透過Deepfake技術製造出人類用肉眼無法識別的“假臉”。

  “也有不少人想到以AI對抗AI。”翁仲銘介紹,美國國防部研發了全球首款“反AI變臉刑偵檢測工具”,專門用於檢測AI變臉或換臉造假技術。不過,人工智慧基金會的研究副主席戴利普承認,現時Deepfake檢測演算法的準確率,即使可高達97%,但鑑於網際網路規模非常大,餘下的3%仍然極具破壞力。

  目前還有一個識別Deepfake換臉的新思路,叫作“活體取證”,該技術主要是根據解析度、三維資訊、眼動等來區分真假,因為翻拍的照片解析度和直接從真人上採集的照片在質量、解析度上比都有差別。

  “整個演算法遵循的觀察規律是:生物訊號還沒有儲存在假影片中,這些訊號在生成噪聲時也產生了不同的標識。”翁仲銘解釋,換句話說,假影片中顯示的“人”不會表現出與真實影片中的人相似的心跳模式,透過這種方法可以找到每個生成模型的唯一簽名(標識)。值得一提的是,無論遮擋、照明條件如何變化,這些標識在真實影片中是不存在的。利用這些標識可以找到假影片背後的生成模型,然後反過來提高整體的假影片檢測精度。

  “道高一尺魔高一丈,利用Deepfake技術的人也在不斷改進換臉的水平,因此從長遠來看,我們必須尋求更有力的方法來維護和證明社交媒體資訊的真實性。目前幾乎沒有任何工具可以幫助讀者確信其在網上看到的資訊來源可靠,且沒有被篡改。”翁仲銘強調,改善這種情況需要從影片釋出源頭進行管理,比如實名制,同時加強立法,增加網路警察巡邏等,嚴厲打擊這種造假行為。

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 2924 字。

轉載請註明: 門檻越來越低,我們的“臉”就這樣輕易被偷走了... - 楠木軒