最近,#广州地铁#成为热门搜索话题
事实上,原因是一名女子在地铁上发布的裸照在网上疯传。
事实上,这张裸照并不是真实的照片。
而是利用AI技术一键脱衣生成的……
据经纬视频报道,近日,广东广州一女子地铁照片被AI一键扒下来的谣言在网络上广为流传,引发关注。
事实上,照片的女主角是一位博主小红书,所谓的“裸照”是她去年7月在平台上分享的一张照片。原照片中,她穿着正常的衣服,并没有什么不妥之处,但有人用AI软件一键脱掉了她的衣服,并故意在网上传播。
目前,该博主已在评论区回复该网友,并表示相关维权将会到位。
好消息是,在这张照片和文字分享的评论区,不少网友纷纷留言提醒该博主谣言已经蔓延的事实,并敦促他尽快向警方报案。还有热心支持他、辟谣澄清的人。
复活的AI脱掉衣服并散布虚假谣言。
早在2023年,国外程序员就开发出了DeepNude,这是一款利用类似于deepfakes的深度学习技术来“脱掉”女性衣服的应用程序。逼真合成裸照,这就是大家所说的“一键脱衣”。
随后,由于公众广泛争议,开发团队选择终止该项目。
不过,记者发现,在百度网站搜索“AI脱衣软件”时,仍然出现不少“另类软件”。
点击任意一款AI脱衣软件,你都会在产品描述页面看到详细的说明、“优点”和“亮点”。
一位博主发布了一段视频,表示在当今强大的人工智能算法和天时地利人和的情况下,普通人很难为虚假谣言辩护。而现成的剥离软件给造谣者提供了可乘之机。
人工智能改变面孔和衣服,可能导致刑事指控
近年来,“AI变身”在网络上火热,出现了利用明星照片制作变身视频的应用,但乐趣背后却隐藏着不少法律风险和侵权纠纷。
名人刘昊然曾于2023年8月26日发博打假,指责网络上流传的淫秽视频是利用AI换脸技术伪造的,并向警方举报。
专家表示,第《网络安全法》号第27条规定,情况严重的,如果专家明知他人正在进行危害网络安全的活动,则禁止提供技术支持。特别强调不能做的事情。本罪系协助、教唆信息通信犯罪。
晨报综合了经纬视频、央视网站和网友评论
来源:晨报
本文和图片来自网络,不代表火豚游戏立场,如若侵权请联系我们删除:https://www.huotun.com/game/654144.html