近日发生了一件离谱的事,引发众多网友的热议。
一女性网友在社交平台中分享在地铁车厢拍摄的照片,被别有用心的人下载,用AI一键脱衣软件生成了裸体照片。
生成裸照后,又有网友发到各个微信群,配文添油加醋的进行造谣。然而我们看到的事实是,原图中她衣着正常,没有任何不妥之处。一传十,十传百,事情变得更加恶劣。
值得欣慰的是,评论区有众多网友评论提醒其被造谣的事实,催促其尽快报警,也有网友热心帮助其辟谣澄清。
大多数网友看到此事的态度为谴责,怒斥“人工智能不应该用在这上面”。
目前博主已在评论区回复各位网友,称会进行相关的维权处理。
其实早在 2019 年,国外程序员开发出了一款名叫 DeepNude 的应用软件,就是利用 AI 技术“脱衣”。
该程序基于加州大学伯克利分校研究者开发的开源算法 pix2pix 创建,使用 1 万张xx图片加以训练。
只需要上传一张女性照片,小工具就会根据开源算法,分辨出该女性一丝不挂的样子。
衣服穿的越少,露的越多,达到的效果就越逼真。
后来因为舆论争议太大,该项目被关闭。
但如果在网上搜索「AI 脱衣软件」,依然会出现一些“替代品”的下载端口。
有部分 App 甚至打出了「免费下载试用」的广告。
现如今 AI 算法如此强大,伪造谣言对普通人伤害巨大,百口莫辩。
科技本无罪,但并不代表可以用科技的成果来做一些道德败坏的违法事情。
科技不该被用在这种低劣的事情上面,滥用技术的人必须付出应有的代价。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。