"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

还记得“一键脱衣AI”DeepNude吗?

去年6月,这款深度造软件发布仅几个小时便因访问请求过大迅速宕机,而其原因是它可以一键脱掉女性衣服,制造大量色情图片。

"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

近日,据调查发现,这款色情的软件再次出现在了即时消息应用程序——Telegram中。

截止目前,该软件在TeleGram平台已经公开发布了约104,852张色情图片,这一数据还不包括私下分享传播的图片。更重要的是,这些图片70%全部来自社交网络中的真实女性,甚至包括未成年人。

也就是说,日常在Facebook、微博等社交媒体中分享的自拍照,很可能会被人用来生成“果照”。

DeepNude盯上了“可能认识的人”

这项调查来自美国阿姆斯特丹的网络安全公司Sensity,这家公司专注于所谓的“视觉威胁情报”,尤其是那些深度造假视频的传播。他们调查发现,截至7月底,Telegram平台七个主要频道均在使用DeepNude软件。

"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

该软件吸引了全球103,585名用户,其中用户最多的频道有45,615人。这些用户大部分聚集在俄罗斯及东欧周边地区。

据了解,这款软件爆火的原因有三点。一是操作非常简单,只需要一张照片,上传至软件后,几秒就可以自动生成裸照,不需要任何技术知识或者专门的硬件支持。

二是所有人免费使用。不过它也有盈利模式,未付费用户获得的裸照后会打上水印标签或者只有局部裸露,用户支付1.28美元才可以获得无水印图片,但使用权限仅限七天100张。

"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

三是可以获得熟悉的人的裸照。Deepfake伪造色情视频已经屡见不鲜,主要以为名人为目标。但根据一项民意调查显示,大多数用户对“现实生活中认识的女性”更感兴趣,占比达到了63%。

"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

而DeepNude恰好提供了这样的支持,任何用户使用任何照片都可以生成裸照。

从TeleGram平台的公开数据来看,许多照片中的女性都是普通上班族、大学生,而且这些照片都是来自TikTok、Instagram、Facebook等平台的自拍照。

需要注意的是,这款深度造假软件只针对女性。如果上传一张男性或者其他任何无生命照片,系统也会自动被替换成女生的身体,并识别成相应的器官。

Sensity首席科学家乔治·帕特里尼(Giorgio Patrini)介绍称,目前已经超过680,000名女性在未知情的情况下被伪造成了色情图片,并上传到了公共媒体平台。

目前,Sensity公司的相关调查数据已经对外披露,相关执法部门也对此展开了调查。而至此,为何允许该色情软件出现在社交平台中,Telegram一直未给出公开答复。

另外,据Sensity调查显示,除了Telegram之外,另一家俄罗斯社交媒体平台VK也发现了DeepNude,而且它已经开始公开为软件打广告。

不过,此事件一出后,相关负责人便立刻出面回应否认了这一说法。同时他强调,

VK不容忍平台上出现此类内容或链接,同时也会阻止分发它们的社区。另外,此类社区或链接并未使用VK广告工具进行宣传,我们也进行额外的检查,并阻止不当内容的出现。

创建者:我不是偷窥狂,只是出于猎奇心

然而,就是这样一款色情造假软件,它的创建初心竟然是出于好奇心和对技术的热忱。

2019年6月27日,DeepNude软件首次公开上线,随后不久,系统就因为用户访问量过大而宕机。

"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

但就是这几个小时,这款针对女性的“一键脱衣AI”已经在国内外引起轩然大波。

有关“侵犯隐私、性别歧视”等指责声在Twitter、Reddit、微博等各大社交媒体平台层出不穷。深度学习先驱吴恩达(Andrew Ng)还发推称,DeepNude是“人工智能最令人恶心的应用之一”。

而对于外界的种种指责,它的开发者阿尔贝托(Alberto)却公开回应称:

“这个世界还没为 DeepNude 做好准备!”“我不是偷窥狂。我是技术的爱好者”。

同时他强调,“我不关心裸照之类的。有些人自己不想用,就想着让别人也用不上,这很蠢。对技术知识的封堵和审查,是无法阻止它的扩散和传播。”

据了解,Alberto的研发灵感是来自某杂志上的一个X射线眼镜。他对AI技术非常感兴趣,当发现GAN网络能够把白天照片编变成黑夜照片后,便意识到同样利用GAN也可以将一张穿衣服的照片转换成一张不穿衣服的照片。正是出于这样的好奇,最终研发出了DeepNude。

具体来说,DeepNud是基于称为“ pix2pix ”的开源“图像到图像翻译”软件构建的,该软件于2018年由加州大学伯克利分校的AI研究人员首次发现。其核心技术GAN能够通过识别真实图像,创造自己的伪造品。比如将白天到夜晚的风景照片或从黑白变为全彩色。

但不管是出于猎奇,还对技术研发的准确,这款软件确实是滥用AI技术产生了恶劣的影响。如知名作家尼娜·扬科维奇(Nina Jankowicz)表示,DeepNude对世界各地的女性都有巨大影响,尤其是在俄罗斯等社会较为保守的国家。如果公开发表令人信服但虚假的裸照,受害者可能会失去工作,或者面临伴侣暴力。

Sensity公司也表示,这些虚假的色情图像或视频很可能被用做勒索、骚扰的手段。

Deepfake威胁,正在肆虐

不仅是DeepNude,所有Deepfake软件均是如此。

如波士顿大学法学教授 Danielle Citron 所说,“Deepfake已经成为了攻击女性强有力的武器。"

Deepfake深度造假软件背后的核心技术都是生成式对抗网络GAN。GAN通过生成器与鉴别器之间的相互Battle来生成逼真的虚假图像、视频或者语音。

自2017年,Deepfake首次被用于制作色情视频后——神奇女侠下海事件,社交网络便开始大量充斥着此类视频,据统计,在所有Deepfake创作的视频中,色情视频占据了96%。随着技术的不断升级,Deepfake的逼真程度已经达到了肉眼难以分辨的地步,同时它也开始被应用到政治领域。如Donald Trump、Barack Hussein Obama,  Elon Musk等名人政客的虚假换脸视频已屡见不鲜。

"一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体!

据普林斯顿大学教授Jacob Shapiro最新研究结果显示,2013年至2019年期间,社交媒体已累计发起96次政治运动,而其中,93%为原创内容,86%放大了已有内容,74%歪曲了客观事实。而其目的多为诋毁政客、误导公众、激化矛盾等。

为了应对Deepfake软件带来的威胁和挑战,2019 年,Facebook 斥巨资发起“Deepfake 检测挑战赛”(Deepfake Detection Challenge,DFDC)。今年Deepfake 检测的识别准确率已经达到了 82.56%。

除此之外,学术界以及其他企业团队也在研发Deepfake的检测方式。但尽管检测方式越来越多,准确度越来越高,制造虚假视频的趋势依然没有得到很好的抑制。

究其原因,其一可能是AI生成虚假内容越来越方便,如DeepNude,只需要一张照片,人人都可以上手。而其二,如Sensity公司负责人所说,DeepNude目前还处于法律的灰色地带。

因此,要想关上 Deepfake 潘多拉的魔盒,需要制度的约束和人心向善的引导。

引用链接:

https://www.buzzfeednews.com/article/janelytvynenko/telegram-deepfake-nude-women-images-bot

https://www.theverge.com/2020/10/20/21519322/deepfake-fake-nudes-telegram-bot-deepnude-sensity-report?scrolla=5eb6d68b7fedc32c19ef33b4

https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman

雷锋网雷锋网雷锋网

版权声明:本文源自 网络, 于,由 楠木轩 整理发布,共 3219 字。

转载请注明: "一键脱衣"AI再次惊现!Deepfake正在盗用社交网络"自拍照"生成果体! - 楠木轩