在一份书面报告中,总部位于英国的互联网观察基金会敦促各国政府和技术提供商迅速采取行动,以免人工智能生成的儿童性虐待图像淹没执法调查人员,并大大扩大潜在受害者的范围。
“我们不是在谈论它可能造成的危害,”该监督组织的首席技术官丹·塞克斯顿(Dan Sexton)说。“这种情况正在发生,需要立即得到解决。”
韩国东南部的釜山地方法院(Busan District Court)称,今年9月,一名男子因使用人工智能制作360张虚拟虐待儿童的图片,被判处两年半监禁,这是韩国首例此类案件。
在某些情况下,孩子们在彼此身上使用这些工具。在西班牙西南部的一所学校,警方正在调查一名青少年涉嫌使用一款手机应用程序,让穿着整齐的同学在照片中出现裸体。
该报告揭露了构建生成式人工智能系统竞赛的阴暗面,用户可以用语言描述他们想要制作的东西——从电子邮件到新颖的艺术品或视频——然后让系统吐出。
如果不加以制止,深度伪造的儿童性虐待图片可能会使调查人员陷入困境,无法营救那些最终被证明是虚拟角色的儿童。犯罪者还可以利用这些图像来培养和胁迫新的受害者。
塞克斯顿说,国际野生动物基金会的分析人员在网上发现了一些著名儿童的面孔,以及“人们对创作更多可能在几年前就被虐待过的儿童照片的巨大需求”。
“他们利用现有的真实内容,为这些受害者创造新的内容,”他说。“这真是令人震惊。”
塞克斯顿说,他的慈善组织专注于打击在线儿童性虐待,今年早些时候首次开始处理有关滥用人工智能生成图像的报告。这导致了对所谓暗网论坛的调查,暗网是互联网的一部分,托管在一个加密的网络中,只能通过提供匿名功能的工具访问。
IWF的分析人员发现,施虐者们分享了一些建议,并惊叹于他们的家用电脑是多么容易变成生产各种年龄段儿童色情图片的工厂。一些人还在交易并试图从这些看起来越来越逼真的图像中获利。
“我们开始看到的是内容的爆炸式增长,”塞克斯顿说。
虽然IWF的报告意在指出一个日益严重的问题,而不是提供处方,但它敦促各国政府加强法律,使其更容易打击人工智能造成的滥用。它特别针对欧盟,那里存在一场关于监控措施的辩论,该措施可以自动扫描消息应用程序中可疑的儿童性虐待图像,即使这些图像之前不为执法部门所知。
该组织的一大工作重点是通过重新分发她们的照片,防止以前的性虐待受害者再次受到虐待。
该报告称,技术提供商可以采取更多措施,使他们开发的产品更难被以这种方式使用,尽管有些工具很难放回瓶子里,这使得情况变得更加复杂。
去年推出了一批新的人工智能图像生成器,它们能够根据指令召唤出异想天开或逼真的图像,令公众惊叹不已。但其中大多数都不受儿童性虐待材料制作者的青睐,因为它们包含屏蔽机制。
塞克斯顿说,拥有封闭人工智能模型的技术提供商,完全控制它们的训练和使用方式——例如,OpenAI的图像生成器DALL-E——似乎在阻止滥用方面更成功。
相比之下,由伦敦初创公司Stability AI开发的开源工具Stable Diffusion受到了儿童性虐待图像制作者的青睐。当稳定扩散在2022年夏天突然出现时,一小部分用户很快学会了如何使用它来生成裸体和色情内容。虽然这些材料大多描绘的是成年人,但往往是未经双方同意的,比如被用来创作受名人启发的裸照。
稳定后来推出了新的过滤器,可以屏蔽不安全和不适当的内容,使用稳定软件的许可证也禁止非法使用。
在周二发布的一份声明中,该公司表示,在其平台上“严格禁止任何出于非法或不道德目的的滥用行为”。声明中写道:“我们强烈支持执法部门打击那些将我们的产品滥用于非法或邪恶目的的人。”
然而,用户仍然可以访问未经过滤的旧版本的Stable Diffusion,这是“绝大多数选择的软件……斯坦福互联网观察站(Stanford Internet Observatory)的首席技术专家戴维·蒂尔(David Thiel)说。斯坦福互联网观察站是另一个研究该问题的监督组织。
“你无法控制人们在电脑上、在卧室里做什么。这是不可能的,”塞克斯顿补充道。“那么,如何才能让他们不能使用公开可用的软件来制作这样有害的内容呢?”
根据美国、英国和其他国家的现行法律,大多数人工智能生成的儿童性虐待图像都被认为是非法的,但执法部门是否有打击这些图像的工具还有待观察。
IWF的报告是在下周由英国政府主办的全球人工智能安全会议之前发布的,届时将有包括美国副总统卡玛拉·哈里斯和科技领袖在内的知名人士出席。
IWF首席执行官苏茜·哈格里夫斯在一份事先准备好的书面声明中表示:“虽然这份报告描绘了一幅黯淡的画面,但我很乐观。”她说,向“广大受众”传达这个问题的现实是很重要的,因为我们需要讨论这项惊人技术的阴暗面。