DeepFake 已經不再是隻有少數科研人員掌握的技術了,它被越來越多懷有不良動機的人,應用到現實生活的方方面面中,引發不必要的誤解,比如説炮製色情影片或者虛假新聞等。
最近,一篇刊登在 IEEE PAMI(模式分析與機器智能彙刊)上的論文稱,有新的方法能夠準確識別 DeepFake 視頻,甚至能以很高的準確率,識別出視頻採用的是哪種 DeepFake 算法。
這篇論文有意思之處,在於它的思路別出心裁:識別人臉面部因心跳血流產生的微弱變化。
血管遍佈人體全身,包括臉上。比如在睡覺的時候,你可能會感覺到面部血液流動產生的輕微“跳動”感。
隨着心跳導致的血液流動,人體皮膚也會出現區域性顏色變化。常見的脈搏血氧儀,其工作方式其實就是識別這種變化。(學名叫做光體積變化描記法 Photoplethysmography, 簡稱 PPG。後面還會提到這個詞。)
因心跳產生的皮膚顏色變化,在人臉上同樣會出現,只是極其微弱,對肉眼不可見,在視頻裏就更難看出來了。不過對視頻進行特定處理,增強顏色變化的效果,肉眼就可以很明顯地觀察出來了:
你可能想問:這種方法識別心跳準確嗎?當然準了,Apple Watch 和一大堆血氧儀都採用的這種方法。它的準確率和心電圖基本吻合,如下圖所示:
三位分別來自紐約州立大學賓漢頓分校和英特爾公司的研究人員,在這篇新論文裏提出了一個重要的主張:無論是在空間維度還是時間維度上,DeepFake 的假人臉都無法還原這種因血液流動造成的微弱變化。
空間維度就是面部區域,時間維度就是心跳頻率。DeepFake 的假人臉,不是體現不了這種微弱變化。在進行大量測試後,研究人員發現:DeepFake 視頻裏的人臉,讀取到的 PPG 信號是不穩定的。
這句話的意思是:如果你對 DeepFake 視頻進行增強,會發現血流變化產生的顏色變化在人臉上顯示非常不自然,變化的頻率也完全不像真的心跳。
從下圖中你可以看的更清楚:四種 DeepFake 算法生成的視頻,產生的 PPG 信號都有很多“雜訊”,而真實視頻的“雜訊”很少。
基於這個主張,研究人員設計了一套基於卷積神經網絡的模型,命名為 FakeCatcher。
FakeCatcher從不同的 DeepFake 視頻中提取 1)關鍵的人臉區域 2)讀取 PPG 信號,將兩者組合成一個時空模塊(稱為一個 PPG 元素)。再對 PPG 元素進行學習,最終就可以給出答案了。
在 Face Forensics++、CelebDF 等常用的假臉數據集上,Fake Catcher 的準確率能夠超過90%。
更厲害的是,FakeCatcher 不光能認出視頻的真假,還能準確識別出假視頻用的是哪種 DeepFake 算法——這是因為每種算法的殘差效果的雜訊都有足夠明顯的特種。研究人員透露,他們在 DeepFakes、Face2Face、FaceSwap 和 NeuralTex 四種主流算法上的識別準確率整體超過了93%。
研究人員認為,這篇論文中提出的 PPG 信號識別思路,對於 DeepFake 的識別和偵測能夠開啓一個全新的方向。
接下來,他們打算訓練一個更復雜的模型,同時對真實視頻和 DeepFake 視頻的 PPG 信號進行訓練。
所謂魔高一尺道高一丈,趕在 DeepFake 算法被大肆濫用之前堵住他們的路,讓他們無路可走。