暗网里发现,恋童癖者正利用人工智能生成歌手和电影明星的儿童形象

暗网里发现,恋童癖者正利用人工智能生成歌手和电影明星的儿童形象

在暗网里,恋童癖者正在利用人工智能(AI)来创造名人小时候的形象。

互联网观察基金会(Internet Watch Foundation,IWF)表示,一位著名女歌手童年时期的照片(并非真实的,而是AI生成的照片)正被恋童癖者分享。

在一个针对暗网犯罪的交流论坛上,该慈善机构表示,儿童演员的图像也被篡改生成成性图像。

目前,数百张真实的儿童性虐待受害者的图片也在使用定制的图片生成器被制作出来。

这些细节来自于IWF对这一日益严重的问题的最新报告,IWF正试图提高人们对恋童癖者使用人工智能系统的危险性的认识,这些系统可以根据简单的文本指令创建图像。

自从这些功能强大的图像生成系统进入公共领域以来,研究人员警告说,它们有可能被滥用来生成非法图像。

今年 5 月,美国内政大臣苏埃拉·布雷弗曼(Suella Braverman)和美国国土安全部部长亚历杭德罗·马约卡斯(Alejandro Mayorkas)发表联合声明,承诺解决“通过人工智能生成的儿童遭受恋童癖者性剥削的卑鄙图像数量出现惊人增长“的问题。

IWF的报告详细介绍了研究人员如何花了一个月的时间在一个暗网虐待儿童网站上记录人工智能图像,并发现了近3000张合成图像,而根据英国法律,这些图像是非法的。

分析人士表示,现在出现了一种新趋势,即恋童癖者拍摄知名虐童受害者的单张照片,然后在不同的性虐待环境中再现更多的受害者。

他们发现的一个文件夹包含501张照片,这些图片都是真实世界中一名受害者的,该受害者在遭受性虐待时年龄约为9至10岁。在该文件夹中,恋童癖者还共享了一个经过微调的人工智能模型文件,以允许其他人生成更多她的图像。

IWF表示,其中一些图像,包括名人小时候的图像,非常逼真,未经训练的眼睛根本无法区分。

分析人士看到的图像大多是女歌手和电影明星,这些图像被使用成像软件进行了去衰老处理,使她们看起来像儿童。

该报告没有具体说明哪些名人成为攻击目标。

该慈善机构表示,其分享这项研究成果,是为了将该问题列入下周在布莱切利公园举行的英国政府人工智能峰会的议程上。

在一个月内,IWF调查了11108张人工智能图像,这些图像在暗网虐待儿童的论坛上公开分享。

其中2978张被确认为不符合英国法律的图像 ——这意味着它们描绘了针对儿童的性虐待。

这些图像中超过五分之一(564张)被归类为A类,这是最严重的图像类型;这些图像中超过一半(1372张)描绘的是小学生(7至10岁);除此之外,还有143张图像描绘了3至6岁的儿童,甚至有2张图像描绘了婴儿(2岁以下)。

今年6月,IWF警告说,恋童癖者开始探索利用人工智能来制作儿童的受虐待图像,但现在IWF表示,这种担忧已经成为现实。

IWF首席执行官苏西·哈格里夫斯(Susie Hargreaves)表示:“我们最可怕的噩梦已经成真。”

“今年早些时候,我们警告说,人工智能图像很快就会变得与真实的儿童遭受性虐待的图片难以区分,我们可能会开始看到这种图像以更大的数量激增。我们现在已经过了这个阶段。”

IWF报告重申了人工智能图像对现实世界的危害。尽管在内容制作过程中没有儿童受到直接伤害,但这些图像使针对儿童虐待性行为正常化,并且在调查不存在的儿童时可能会浪费警察资源。

在某些情况下,人们也在探索新的犯罪形式,这给执法机构带来了新的复杂性。

例如,IWF发现了两个女孩的数百张图片,她们在一家非裸体模特经纪公司拍摄的照片被篡改为 A 类性虐待场景。

现实情况是,他们现在是从未发生过的A类犯罪行为的受害者。

推荐阅读:

  • 点赞
  • 打赏
请选择打赏方式
  • ERC-20
  • TRC-20