"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

還記得“一鍵脫衣AI”DeepNude嗎?

去年6月,這款深度造軟體釋出僅幾個小時便因訪問請求過大迅速宕機,而其原因是它可以一鍵脫掉女性衣服,製造大量色情圖片。

"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

近日,據調查發現,這款色情的軟體再次出現在了即時訊息應用程式——Telegram中。

截止目前,該軟體在TeleGram平臺已經公開發布了約104,852張色情圖片,這一資料還不包括私下分享傳播的圖片。更重要的是,這些圖片70%全部來自社交網路中的真實女性,甚至包括未成年人。

也就是說,日常在Facebook、微博等社交媒體中分享的自拍照,很可能會被人用來生成“果照”。

DeepNude盯上了“可能認識的人”

這項調查來自美國阿姆斯特丹的網路安全公司Sensity,這家公司專注於所謂的“視覺威脅情報”,尤其是那些深度造假影片的傳播。他們調查發現,截至7月底,Telegram平臺七個主要頻道均在使用DeepNude軟體。

"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

該軟體吸引了全球103,585名使用者,其中使用者最多的頻道有45,615人。這些使用者大部分聚集在俄羅斯及東歐周邊地區。

據瞭解,這款軟體爆火的原因有三點。一是操作非常簡單,只需要一張照片,上傳至軟體後,幾秒就可以自動生成裸照,不需要任何技術知識或者專門的硬體支援。

二是所有人免費使用。不過它也有盈利模式,未付費使用者獲得的裸照後會打上水印標籤或者只有區域性裸露,使用者支付1.28美元才可以獲得無水印圖片,但使用許可權僅限七天100張。

"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

三是可以獲得熟悉的人的裸照。Deepfake偽造色情影片已經屢見不鮮,主要以為名人為目標。但根據一項民意調查顯示,大多數使用者對“現實生活中認識的女性”更感興趣,佔比達到了63%。

"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

而DeepNude恰好提供了這樣的支援,任何使用者使用任何照片都可以生成裸照。

從TeleGram平臺的公開資料來看,許多照片中的女性都是普通上班族、大學生,而且這些照片都是來自TikTok、Instagram、Facebook等平臺的自拍照。

需要注意的是,這款深度造假軟體只針對女性。如果上傳一張男性或者其他任何無生命照片,系統也會自動被替換成女生的身體,並識別成相應的器官。

Sensity首席科學家喬治·帕特里尼(Giorgio Patrini)介紹稱,目前已經超過680,000名女性在未知情的情況下被偽造成了色情圖片,並上傳到了公共媒體平臺。

目前,Sensity公司的相關調查資料已經對外披露,相關執法部門也對此展開了調查。而至此,為何允許該色情軟體出現在社交平臺中,Telegram一直未給出公開答覆。

另外,據Sensity調查顯示,除了Telegram之外,另一家俄羅斯社交媒體平臺VK也發現了DeepNude,而且它已經開始公開為軟體打廣告。

不過,此事件一出後,相關負責人便立刻出面回應否認了這一說法。同時他強調,

VK不容忍平臺上出現此類內容或連結,同時也會阻止分發它們的社群。另外,此類社群或連結並未使用VK廣告工具進行宣傳,我們也進行額外的檢查,並阻止不當內容的出現。

建立者:我不是偷窺狂,只是出於獵奇心

然而,就是這樣一款色情造假軟體,它的建立初心竟然是出於好奇心和對技術的熱忱。

2019年6月27日,DeepNude軟體首次公開上線,隨後不久,系統就因為使用者訪問量過大而宕機。

"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

但就是這幾個小時,這款針對女性的“一鍵脫衣AI”已經在國內外引起軒然大波。

有關“侵犯隱私、性別歧視”等指責聲在Twitter、Reddit、微博等各大社交媒體平臺層出不窮。深度學習先驅吳恩達(Andrew Ng)還發推稱,DeepNude是“人工智慧最令人噁心的應用之一”。

而對於外界的種種指責,它的開發者阿爾貝託(Alberto)卻公開回應稱:

“這個世界還沒為 DeepNude 做好準備!”“我不是偷窺狂。我是技術的愛好者”。

同時他強調,“我不關心裸照之類的。有些人自己不想用,就想著讓別人也用不上,這很蠢。對技術知識的封堵和審查,是無法阻止它的擴散和傳播。”

據瞭解,Alberto的研發靈感是來自某雜誌上的一個X射線眼鏡。他對AI技術非常感興趣,當發現GAN網路能夠把白天照片編變成黑夜照片後,便意識到同樣利用GAN也可以將一張穿衣服的照片轉換成一張不穿衣服的照片。正是出於這樣的好奇,最終研發出了DeepNude。

具體來說,DeepNud是基於稱為“ pix2pix ”的開源“影象到影象翻譯”軟體構建的,該軟體於2018年由加州大學伯克利分校的AI研究人員首次發現。其核心技術GAN能夠透過識別真實影象,創造自己的偽造品。比如將白天到夜晚的風景照片或從黑白變為全綵色。

但不管是出於獵奇,還對技術研發的準確,這款軟體確實是濫用AI技術產生了惡劣的影響。如知名作家尼娜·揚科維奇(Nina Jankowicz)表示,DeepNude對世界各地的女性都有巨大影響,尤其是在俄羅斯等社會較為保守的國家。如果公開發表令人信服但虛假的裸照,受害者可能會失去工作,或者面臨伴侶暴力。

Sensity公司也表示,這些虛假的色情影象或影片很可能被用做勒索、騷擾的手段。

Deepfake威脅,正在肆虐

不僅是DeepNude,所有Deepfake軟體均是如此。

如波士頓大學法學教授 Danielle Citron 所說,“Deepfake已經成為了攻擊女性強有力的武器。"

Deepfake深度造假軟體背後的核心技術都是生成式對抗網路GAN。GAN透過生成器與鑑別器之間的相互Battle來生成逼真的虛假影象、影片或者語音。

自2017年,Deepfake首次被用於製作色情影片後——神奇女俠下海事件,社交網路便開始大量充斥著此類影片,據統計,在所有Deepfake創作的影片中,色情影片佔據了96%。隨著技術的不斷升級,Deepfake的逼真程度已經達到了肉眼難以分辨的地步,同時它也開始被應用到政治領域。如Donald Trump、Barack Hussein Obama,  Elon Musk等名人政客的虛假換臉影片已屢見不鮮。

"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體!

據普林斯頓大學教授Jacob Shapiro最新研究結果顯示,2013年至2019年期間,社交媒體已累計發起96次政治運動,而其中,93%為原創內容,86%放大了已有內容,74%歪曲了客觀事實。而其目的多為詆譭政客、誤導公眾、激化矛盾等。

為了應對Deepfake軟體帶來的威脅和挑戰,2019 年,Facebook 斥巨資發起“Deepfake 檢測挑戰賽”(Deepfake Detection Challenge,DFDC)。今年Deepfake 檢測的識別準確率已經達到了 82.56%。

除此之外,學術界以及其他企業團隊也在研發Deepfake的檢測方式。但儘管檢測方式越來越多,準確度越來越高,製造虛假影片的趨勢依然沒有得到很好的抑制。

究其原因,其一可能是AI生成虛假內容越來越方便,如DeepNude,只需要一張照片,人人都可以上手。而其二,如Sensity公司負責人所說,DeepNude目前還處於法律的灰色地帶。

因此,要想關上 Deepfake 潘多拉的魔盒,需要制度的約束和人心向善的引導。

引用連結:

https://www.buzzfeednews.com/article/janelytvynenko/telegram-deepfake-nude-women-images-bot

https://www.theverge.com/2020/10/20/21519322/deepfake-fake-nudes-telegram-bot-deepnude-sensity-report?scrolla=5eb6d68b7fedc32c19ef33b4

https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman

雷鋒網雷鋒網雷鋒網

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 3219 字。

轉載請註明: "一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網路"自拍照"生成果體! - 楠木軒