App下载

手机扫描下载App客户端

返回顶部
分享到

仅几秒,女性“被裸体”!这AI网站太吓人

黑灰产业 2021-9-10 20:00 1453人浏览 0人回复
摘要

近日,据《赫芬顿邮报》报道,继臭名昭著的深度伪造软件“Deepnude”被下架后,又有一个更强大、更智能的“娱乐”网站出现在互联网中。在这个网站上,任何使用者可以轻易地在数字层面剥去一个人(通常是女性)的衣服 ...

近日,据《赫芬顿邮报》报道,继臭名昭著的深度伪造软件“Deepnude”被下架后,又有一个更强大、更智能的“娱乐”网站出现在互联网中。在这个网站上,任何使用者可以轻易地在数字层面剥去一个人(通常是女性)的衣服

而根据其网站的介绍,他们所专注的事业是:“通过AI研究,让人类的梦想成真”。


仅几秒,女性“被裸体”!这AI网站太吓人

为了避免为其引流,本文对该网站的名字略去不提。

此网站的使用相当简单,用户只要上传一张自己选择的穿戴整齐的女性照片,几秒钟之内,网站就会免费为他们脱光衣服。在舆论的抗议下,网站在9月6日暂时关停,但不到一天后,网站就带着“收费模式”重新上线。收费模式下,获得一张深度伪造的高清裸体图片仅需0.3美元。


仅几秒,女性“被裸体”!这AI网站太吓人


成果“惊人的真实”

已积累3800多万点击量

用技术做对比的话,2019年走红的“Deepnude”并不先进,如果能抛去其独特的“色情”元素,他们生产的产品甚至可以被称为是幼稚可笑的:如果在Deepnude上传一张男性半裸的照片,那在照片的下半部分将被拼接上一副裸露的女性乳房。但相比之下,这个成立于2020年的新网站比Deepnude先进得多。

据称,该网站生产的裸体女性图像“惊人的真实”。在这些生成的图像中通常没有伪造的破绽或是视觉线索,都是在深度伪造的技术下综合处理生成的,这大大增加了对图片主体的潜在伤害。

“任何有报复心的变态都可以很容易地‘裸体化’并发布他前女友的照片,图片将非常有说服力,好像她的真实裸体被泄露了一样。”《赫芬顿邮报》写道。

此外,该网站自称开发了自己的“最先进的”深度学习图像翻译算法来“裸体化”女性身体,可以覆盖到所有的种族,从这个角度来说,它可能比频频被爆种族歧视的Facebook更“人人平等”——“人人”除了男性。当你上传一张男性照片时,该网站会为其匹配上女性的性器官。


仅几秒,女性“被裸体”!这AI网站太吓人

从今年年初至今,该网站已经积累了3800多万点击量——这可能和该网站的“推荐”策略有关。每个使用者都可以生成分享链接,而每个点入这个链接的人将给分享者带来一份“奖励”——他们会获得至多一百个免费生成女性高清裸体的额度。这鼓励了成千上万的使用者为它做广告,有时他们会附上网站生成的“成果图”,这些图片的主体可能是他们的同事、邻人、前任,甚至是被随手拍下的陌生人。


仅几秒,女性“被裸体”!这AI网站太吓人

然而,以URL形式分享的链接存在着明显的弱点:社交应用可以在自己的平台上全面禁止其传播。但至今为止,只有Facebook在被媒体提醒后这样做了。截止至此稿发布,该网站仍可以被直接在搜索引擎中被找到


不仅是名人

任何女性都可以成为被伪造的对象

早在此网站之前,Telegram就被爆出平台上有深度伪造合成裸照的应用。据网络安全研究机构Sensity在2020年秋季发布的报告,在Telegram的应用中,至少有10.48万女性“被裸体”,而在分发这些照片的7个频道中,累计用户超过10万。


仅几秒,女性“被裸体”!这AI网站太吓人

根据Sensity的追踪调查,Telegram应用中超七成的使用者表示他们上传的照片是通过社交平台,或其他私人渠道取得的。

“这是一个非常非常糟糕的情况。”英国深度伪造专家亨利·阿吉德说:“(新网站生成的)图片真实性大大提高了。”同时他也指出,深度造假技术在应用于名人外,也针对普通女性:“绝大多数使用这些(工具)的人瞄准了他们认识的人。”

没有人是安全的——Sensity的首席执行官帕特里尼说,只要你在社交媒体上发布了有人脸信息的图片,就可以被用于生成裸照。

帕特里尼和阿吉德的意见都可以在另一个网站(它是Deepnude的迭代产品)中得到佐证。在此网站的展示页面中,有来自世界各地的女性裸体展示,而经过记者溯源,可以发现这些图片来自于各个平台:Pinterest、Instagram、或是购物网站;这些女性有的是商业模特,有的是健身博主,也有约拍人像的普通女孩。这些裸体照片的原型可能是她们的工作照,也有生活片段的分享。

此外,展示页面中相当一部分照片来源是“无版权图片”,这意味着这些图片可被免费下载、使用。那么随着深度伪造技术的发展,“无版权图片”应被视作商品还是个人肖像权的部分?

至少,在溯源的过程中,没有任何信息显示这些女性是自愿提供这些图像的。


深度伪造视频呈指数级增长

暂无有效管控方式

根据Sensity的数据,自2018年以来,网上深度伪造视频的数量呈指数级增长,大约每六个月就翻一番。截止到2020年12月,他们共发现虚假视频85047个。


仅几秒,女性“被裸体”!这AI网站太吓人

然而,相对于其迅速扩张的现状来说,深度伪造尚无行之有效的管控方式。

“大规模检测可以说是最好的解决方案,”阿吉德说,这指的是用算法大规模过滤社交媒体和平台,但,不幸的是,“目前很难做好大规模的检测,并将这套检测系统纳入我们生活的数字基础设施中...检测系统部署起来不够准确和可靠,特别是对于海量吞吐数据的社交平台来说。”

另一种技术方法被称为内容认证,如TruePic或Adobe等平台,他们可以通过捕捉点来认证照片或视频的真伪。这本质上是对原始图像进行“指纹识别”,并记录下图像在处理过程中的所有更改。但这种方法也有缺点。其中最显著的一点是,人们可以将照片拍照后再次上传。

阿吉德认为,理想的方法可能是两者的结合,加上一些数字素养,这样个人就可以在不那么复杂的深度造假中发现媒体操纵的迹象。然而,就目前而言,识别深度造假仍然是一场差距悬殊的追捕赛:被造假的受害者需要花费大量精力维持生活、追诉公义,在这个过程中一些受害者失去了工作,社会关系和尊严,而有些人死于自杀。

某种意义上来说,这些图像是否真实已经不再重要——《赫芬顿邮报》这样写道——它们创造了一个新的现实,受害者必须生活在其中


来源:南方都市报

原标题:《仅几秒,女性“被裸体”!这AI网站太吓人》

编辑:刘梦鸽 吉倩倩

本文暂无评论,快来抢沙发!

  • Powered by 安危情报站 X3.4 | Copyright © 2001-2021, 安危情报站. | 安危情报站
  • |