有人竟在Reddit上出售AI生成的裸照
生活网(zhongruitx.com)4月12日消息:人们开始使用人工智能软件生成虚构人物的露骨图片,这已经成为一些人赚钱的手段 。
虽然色情图片的深度伪造早已是成人行业的问题,但最近人工智能图像生成的快速进步,使得创造不存在的人的图片变得比以往任何时候都容易,那些想要出售“裸照”的人也从中寻求大量利益 。
据悉,Reddit上有很多所谓成人模特的图片 。根据人工智能专家和这些图片的制作人的说法 , 它们都显示了人工智能产生的显著特征,例如在一些照片中出现但在另一些照片中没有出现的胎记 。
一些创作者认为 , 查看他们生成的虚构色情内容的人并不介意它是假的,但其他人对与AI色情头像互动的可能性持不同看法 。
据悉,一些Reddit用户在得知克劳迪娅是假的后,感觉被骗了 。事实上,这个克劳迪娅账户是由两个计算机专业的学生管理的 。他们使用AI图像生成器Stable Diffusion创建了这个头像,并声称他们从r/NormalNudes和r/AmIHot等不知情的用户那里赚取了大约100美元 。
【有人竟在Reddit上出售AI生成的裸照】你可以说整个账号只是一个测试,看你能不能用人工智能图片忽悠人 。但也可以看到,这些创新的学生不经意间涉足了一些非常模糊的领域,这些领域随着形势的发展只会变得更加混乱 。
推荐阅读
- 咸蛋黄烤箱烤多久会熟
- 经济学家:年轻人不生小孩是不对的 竟称子女是消费品!
- 如何在抖音里面查看买东西的订单
- 与同价位车型相比,本田 S2000 的优势在哪?
- 昌河m50s停产了吗?
- 老款别克大灯如何关掉开关在哪
- 在哪可以查看到中国联通国际漫游资费?
- 现在有什么大屏幕手机吗?
- 马云在第六届云栖大会上提出的"新制造"是什么意思
- 什么品牌的车载香水瓶质量好?