驚呆了!這些“網紅”可能都是假人......

Ins、抖音上的網紅一定都是真人嗎?

答案還真不一定。

最近國外出現了一批售賣“假人”的網站,面向所有人開放,只要付費就能通過API快速獲取一個假人IP,而且也不貴,2.99美元(不到20元)一個。

先來看下它們的成品。

驚呆了!這些“網紅”可能都是假人......

這些擁有光滑皮膚的人臉照是不是像極了社交平台的網紅照?

可能你會懷疑他用了美顏相機一鍵磨皮瘦臉了,但肯定想不到他們都是不存在的“假人”

不止如此,這個名為Generated.Photos的網站還為購買者提供了極大的發揮空間,如果對年齡、容貌、膚色、種族、性別,甚至情緒不滿意,統統都可以根據需求自己調整,而調整方法就像使用美顏APP一樣簡單。

比如想要變大雙眼,直接滑動下面的滾動按鈕即可。

驚呆了!這些“網紅”可能都是假人......

從青年直接跨到老年,頭髮、神情、皺紋,過渡的相當自然,還應景地配了副眼鏡。

驚呆了!這些“網紅”可能都是假人......

情緒變化也毫無違和感,正經臉一秒變職業假笑。

驚呆了!這些“網紅”可能都是假人......

如果一張假人照不足為奇,那麼一個名為Rosebud.ai的網站還能讓他們“動”起來。

驚呆了!這些“網紅”可能都是假人......

從説話的口型,五官的輕微移動,確實很難辨真假。

從網站介紹來看,任何帶有面孔的照片都可以變成視頻效果,其中説話的文本,可自定義,也可由系統自動提供,同時,説話者的聲音有多種選擇模式。

那麼,如此逼真的深度造假網站,是不是已經被封殺?

然而並沒有,這是一家正經公司的正經網站,網站上還掛出了他們的客户—歐萊雅(L‘OREAL),電商平台(shopify)、YC中國(Y-Combinator)等大牌企業Logo。

Rosebud.ai:為藝術創作而生

想必很多AI開發者或愛好者,對上述“假人”的生成效果並不感到意外。

自從2014年GAN(生成式對抗網絡)首次被提出以來,基於人臉的圖像合成效果便得到了驚人的發展,尤其是其升級版StylGAN2推出後,在人臉處理方面,已經能夠支持換臉、換頭、修改五官,甚至生成不存在的新人臉。

而且這項技術已經支持圖像、視頻、語音多種形式。據Rosebud.ai官網介紹,其“假人”製造正是基於GAN技術,而其視音頻的處理上利用的是自然語言模型GPT-3.

GPT-3具有超強的文本生成能力,內含1750億參數量,是有史以來最大的NLP模型,也是OpenAI耗資四百多萬美元打造的模型。從6月份開通API服務後,被網友們挖掘出了50多種新玩法,如寫詩作詞、畫圖做PPT,生成代碼等等,效果也十分驚人。

基於這兩項超強AI技術,Rosebud.ai可以達到的效果不難想象。而為何提供這樣一種“假人”服務,該網站也給出了明確説明:

驚呆了!這些“網紅”可能都是假人......

Rosebud ai是一款生成文本、圖像、視頻和語音的工具,它對於生成性媒體完成故事創作非常重要。比如,小説故事中的人物形象總是很豐富多彩,我們可以通過AI技術呈現與之最相符合人物容貌。同時,GPT3能夠進一步通過人物特點合成了具有親和力和情感豐富的獨白,這些獨白在刻畫人物形象,豐富故事內容方式也發揮了非常重要的作用。

也就是説,這項技術原意是被用來輔助藝術創作。事實上,無論是GPT-3,還是GAN技術都是以科技向善為初衷研發的,比如GAN在人臉融合方面的驚人效果,可以被廣泛應用於娛樂、電影製作等行業。

但有人曾説過,“技術本沒有錯,錯的是利用技術的人。”GAN技術被不少不良分子用來創造了大量Deepfake視頻,或是色情內容或是偽造政客言論,此前雷鋒網也有多次報道。

Rosebud ai等工具也一樣。

被間諜利用,用於身份造假

Rosebud ai主要被人用來身份造假。相關案例也不再少數,其中最大的一起案例要屬2019年某間諜利用假面孔混入華盛頓政治領域事件。

當時一名凱蒂·瓊斯(Katie Jones)的紅髮女郎以網絡專家的身份,與美國副國務卿助理,高級參議員助手以及經濟學家保羅·温弗裏(Paul Winfree)都建立了密切聯繫,Winfree當時正在競選美聯儲的職位。

後來經調查發現,這位30歲的女性是由AI創建的“假人”,她在職業社交平台Linkedin上的個人資料和照片全部虛構。

美國國家反情報與安全中心主任威廉·埃文納(William Evanina)曾表示,

“這是在專業社交網站上進行間諜活動的典型案例,很多外國間諜通常會使用虛假的社交媒體資料把自己包裝成美國知名專家,並進行大規模間諜活動,對他們而言,相比於派間諜到某一個國家,不如坐在家裏的計算機後面,向30000個目標好友發送請求效果更高。”

不過,因及時發現該事件並沒有產生更惡劣的影響。同樣是在LinkedIn平台,今年7月份也發生了一起重大身份造假事件。

這位“假人”名為拉斐爾·巴達尼(Raphael Badani),他將自己包裝成美國知名新聞平台Newsmax的內部人員,從事“政治風險顧問、國際關係高級分析師”相關工作。

驚呆了!這些“網紅”可能都是假人......

利用這一身份他發表過有關“伊拉克如何伊朗的控制”,“迪拜為何如此動盪”等多篇文章。這些文章還被美國Washington Examiner、RealClear Markets,、American Thinker以及The National Interest等多家媒體轉載。

但後來發現此人並不存在,其個人資料全部為偽造,文章也竊取自聖地亞哥創業公司創始人的博客。

此外,與以上有政治意圖的造假案例相比,該技術可能被廣泛的應用於日常社交,雖然不會涉及違法犯罪,但它確實在構建一個虛假的世界。例如有網友稱,

不難想象,未來我們會經常看到此類分享照——與“假朋友”聚會,與“假狗”閒逛,抱着他們的“假嬰兒”。

仔細看,肉眼看也能識別

當然,隨着造假信息的泛濫,相關反識別技術也在陸續推出。

目前的主流技術包括人臉X射線( Face X-ray)檢測、背景差異檢測(Background Difference)、情緒識別網絡(Emotion Recognition Network)檢測,以及生物學信號(Biological Signals)檢測,最高識別率可達到99%以上。

此外目前的人臉造假,無論是視頻還是圖像方面,還遠未達到毫無差錯的地步。

如果用肉眼觀察,也能夠發現一些痕跡。比如通過一些配飾,

驚呆了!這些“網紅”可能都是假人......

圖中的耳環看起來很相似,但細心一點可以發現有明顯區別。另外眼鏡也是一個常用的衡量配飾,GAN創建的眼睛,框架兩端經常會不對稱,或有輕微變形。

在對稱方面,GAN在耳朵、眼睛的生成上也會有不一致出現。

最後,最明顯的痕跡就是偽影和背景。

驚呆了!這些“網紅”可能都是假人......

偽影就是在原圖像上出現了並不存在的各種形態的混色影像,這一點最容易識別。偽影也是衡量合成圖像質量的關鍵指標。此外,目標人臉之外的背景也是重點,如變形的樹木、錯位的草坪等。

引用鏈接:

https://www.nytimes.com/interactive/2020/11/21/science/artificial-intelligence-fake-people-faces.html?action=click&module;=RelatedLinks&pgtype;=Article

https://apnews.com/article/bc2f19097a4c4fffaa00de6770b8a60d

https://www.thedailybeast.com/right-wing-media-outlets-duped-by-a-middle-east-propaganda-campaign

雷鋒網雷鋒網雷鋒網

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 2991 字。

轉載請註明: 驚呆了!這些“網紅”可能都是假人...... - 楠木軒