神奇女侠等明星照片被DeepNude处理后上传网络,恶意时代如何保护女性?

  • A+

用一句中国经常说的话来说,技术是一把双刃剑,但是你永远不知道开发技术的?#35828;降资?#20986;于让世界更美好,还是迎合自己的私心,而技术一旦到现实中实际应用开来,最可怕的是你不知道会是什么人在用它,用它来干什么。

 

在现代男权社会中讨生活的女性,女性们不但要忍受被物化、被金钱衡量、荡妇羞辱、年龄羞辱、被当做生育工具……而现在,她们还要提防技术放来的一支支暗箭!

 

2019年5月份,一名新浪微博名为“将记忆深埋”的码农表示,“经过半年多的时间,100多TB数据,利用某数字论坛、P站、X站等网站采集数据对比,再加上Facebook、instagram、TikTok、抖音、微博等全球知名社交媒体,在全球范围成功识别了10万多从事某个可不描述行业的小姐姐。(使用Face Recognition/Identification和Behavior Recognition对 Spider抓取)。”

 

在网络上担心现在女生美颜太?#29616;兀?#19978;妆卸妆几乎是两个人,但是这名码农表示,通过步态分析、VPR以及其他身体来进行美颜和deepfakes的对抗,基本达到99%的?#34892;?#35782;别率。此外,还有声纹检测。

 

这个消息一出引起许多码农的“共鸣?#20445;?#32780;这名码农却被一众男网友奉为“大神?#20445;云?#39030;礼膜拜。更为讽刺的是,但凡女性网友质疑有很多女性是受害者,遭偷拍被上传至各种网站上时,就?#24515;?#24615;网友跳出来,认为这是心虚的表现。

 

虽然当时因引发舆论过大,后来以删库告一段落。然而?#20174;?#21035;人盯上这个“创意?#20445;?#19968;个名为“原谅宝APP”的微信公众号悄然上线,自我介绍称“只需一张图、一?#25105;?#39057;帮您全网检测是否被人偷拍,并提供相应的数据擦除服务。”

神奇女侠等明星照片被DeepNude处理后上传网络,恶意时代如何保护女性?

关注微信公众号之后还会看?#21073;?#26174;示原谅宝APP的介绍“本产品使用人工?#24708;?#20154;脸识别、声纹识别,大数据采集与清洗,人脸反向搜索技术……”交互页面中还不乏“接盘报告”、“原谅指数”、“老?#31561;?#20445;护?#33529;?#31561;令人引起不适的说法。但据报道,实际测试效果并不好,只是一个噱头,毫无技术可言。

 

如果说原谅宝是一颗被扼杀在土壤的种子,DeepFake的“威力”已经显现,就连一线女明星也不能幸免。

 

2017年11月,Reddit出现了一段神奇女侠盖尔·加朵的第一人称视角的小视频后,Deepfake一夜爆红,甚至还衍生出一个专门的讨论区。而随着deepfake代码开源,越来越多的人们在此基础上进行“改良?#20445;?#19981;断更新工具。

 

国外知名女明星艾玛·沃森、权游里面的二丫、“寡姐”?#24049;?#36874;·斯嘉丽都深受其害,斯嘉丽无奈地说:“想要尝试在互联网和它的邪恶面前保护自己,大多数时候就是一个注定失败的事情。” 国内的女明星也“难逃魔掌?#20445;?#32593;上一搜,就有关于范冰冰、刘亦菲、?#20384;?#28909;巴Deepfake的视频。甚至?#34892;?#22242;队把Deepfake制作成的作?#33539;?#19978;传到了P站,真的让人感到可怕。

 

你以为Deepfake制作的假视频只是满足私人需求?2018年4月,印度的一名调查记者Rana Ayyub,因为揭露一些官员黑幕,就?#20197;?#33394;情报复,被人用Deepfake制作了一?#25105;约?#20081;真的视频,引得家人朋友纷纷相问。现在在P站,X站上已经出现了大量的Deepfake作品,就是利用Deepfake一键生成很多不雅的图片上传到P站,X站上供人阅览,?#28304;?#26469;赚钱。真的是太可怕了。

神奇女侠等明星照片被DeepNude处理后上传网络,恶意时代如何保护女性?

就在你认为DeepFake已经足够可怕时,又?#26032;?#20892;已经开发出一款令人?#35805;?#30340;应用程序DeepNud,DeepNud使用AI和算法来制作女性假果体图像,简而言之,DeepNud可以让你一键脱衣。

这个名叫DeepNude的软件,是Twitter上一名程序员开发,只要给DeepNude一张女性照片,借助神经网络技术,App可以?#30333;远?#33073;掉”女性身上的衣服,显示出果体。

似乎一?#21368;?#28304;于一个名为上面据说DeepFakes。

DeepNud本质上是一种使用AI深度学习,能够将一张图片中人?#24120;?#31227;植到另一张图片上的技术。

通过这种技术,我们可?#28304;?#24314;一个非常逼真的“假”视频或“假”图片,甚至“复活”一个人,“换脸”因?#35828;?#21517;。

 

这款应用程序名为DeepNude,对于任何上传的女性图像,可以一键脱掉所有衣服,引发了人们的担忧,担心它可能被用来虚假的色情报?#30784;?#23041;胁敲诈毫无防备的受害者。

从此,AI世界的潘多拉魔盒就被打开了。

人们在开车的路上,越走越远,而上传的女性照片穿着越裸露,生成的图片越真实。

自从这款DeepNude应用问世以来,它就一直处于下线状态,还在推特上得意洋洋地表示“无法应付”这么大的访问量。

 

DeepNude匿名开发人员表示,他们将在几天内上线,只需要“修复一些bug,并让我们喘口气”。

 

在DeepNude免费版本中,输出图像部分覆盖有大水印。

 

在DeepNude付费版本中,只需花费50美元,水印被删除,只有一个小小的“FAKE”标记放在左上角。

 

美国?#21448;綱ice用数十张照片测试了应用程序,?#21360;?#20307;育画报》的高?#30452;?#29575;照片中得到了最令人信服的结果。

 

超模泰拉·班克斯(Tyra Banks)的标志性照片是该?#21448;?#29992;来测试的图片之一。

 

其他图片包括金·卡戴珊、歌手泰勒·斯威夫特和神奇女侠扮演者盖尔·加朵的假“果体”。

 

DeepNude应用程序无法生成男性的果体图像,并且在Vice尝试时,还生成了一张诡异的带有女性生?#31216;?#30340;男性果照。

 

DeepNude的网站称自?#20309;?#31163;线?#36828;?#21270;软件,可以转换照片,创造假果照”。

 

它可以在Windows和Linux上下载。

 

Vice下载了该应用程序并在Windows机器上进行了测试。它像任何其他Windows应用程序一样安装和启动,并且不需要专业技术知识,哪怕你是电脑小白?#19981;?#29992;。

 

这位名叫Alberto的匿名创建者表示,该软件基于pix2pix,这是一种开源算法,由加州大学伯克利?#20013;?#30340;研究人员于2017年开发。

 

Pix2pix使用生成对抗网络(GANs),DeepNude通过在庞大的图像数据集上训练算法来工作。

 

对于DeepNude,码农说采用超过10,000张女性果体照片,然后试图改进自己。

 

这种算法类似于DeepFake视频中使用的算法,旨在诱使观众认为有人做了他们没做过的事情,以及自驾车通过深度学习使用了什么。

 

Alberto告诉Vice,他的灵感来自于X射线,“就像每个人一样,我对这种想法很着迷,他们真的存在,而且这种记忆依然存在。”

 

这些DeepNude生成假照片很容易被误认为是真的,并可能对个?#35828;?#29983;活造成不可估量的损害。

 

只要把左上角“FAKE”字样裁剪掉,或用Photoshop删除它,这都非常容易。

 

美国科技媒体Motherboard测试了它在不同状态的女性和男性照片上的表现,这些照片中有穿着比基尼的女性,也有穿着比基尼的男性,以及各?#22336;?#33394;。

 

当一幅光线充足、高?#30452;?#29575;的比基尼女性面对镜头的照片时,DeepNude制造出来的这些假果照效果相当逼真。

 

算法准确地填充?#26031;?#21435;衣服的细节,衣服内乳房的角度、乳头和阴影。

 

但DeepNude并非完美无瑕。大多数图像和?#22836;直?#29575;图像,基本上一眼看上去就是人工弄的。

 

DeepNude生成的图片与色情复仇一样,这些图像可以用来羞辱、骚扰、恐吓女性,让女性沉默。

 

在过去,一些论坛上,有很多男性会向所谓的“技术大神”支付费用,从而创建同事、朋友或家庭成员的伪造照片,但有了像DeepNude这样的工具,只需按一下按钮,自己就可以轻松创建这样的图像!

 

大家想象一下,如果你被人报复,一张的假果照传遍你家人、朋友、公司、学校、所有社交媒体上,会是怎样的场景?太可怕了!

 

最可怕的是,面对这?#30452;?#22797;,我们却没有任何反击的工具,只能任其宰割!

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: