美国检察官认为,人工智能产生的儿童性虐待图像越来越受到威胁

雅加达 - 美国联邦检察官正在加紧追捕使用人工智能(AI)工具操纵或制作儿童性虐待图像的嫌疑人,因为执法部门担心这项技术可能会引发非法材料激增。

美国司法部今年对被告提起两起刑事案件,被告被指控使用生成AI系统来制作儿童的明确图像。司法部计算机犯罪和知识产权科科长詹姆斯·西尔弗(James Silver)警告说,将会出现更多类似的案件。

「我们担心的是这种正常化,”西尔弗在接受采访时说。“人工智能使制作此类图像更容易,流传此类图像的数量越多,情况就越正常。这是我们真的想防止的事情。

生成人工智能的出现也引发了人们的担忧,即这项技术将用于网络攻击,更先进的加密货币诈骗,并破坏选举安全。

儿童性虐待案件是检察官试图将美国现有法律应用于与人工智能有关的犯罪的第一例例。即使成功,判决也可能面临上诉,因为法院不得不衡量新技术如何影响与剥削有关的法律格局。

检察官和儿童安全倡导者警告说,生成AI系统允许犯罪者性交替和显示普通儿童的照片,人工智能可能会使执法部门难以识别和找到虐待的真正受害者。

收集在线儿童剥削报告的非营利组织国家失踪及剥削儿童中心(NCMEC)每月平均收到450份与生成人工智能相关的报告,而去年每月总报告达到300万份。

人工智能生成的性虐待图像的案件将面临新的法律挑战,特别是当可识别的儿童未被描述时。在这种情况下,如果儿童色情法不适用,检察官可以提出违反体面的指控。

例如,5月份,威斯康星州软件工程师史蒂文·安德烈克(Steven Anderegg)被指控使用稳定漏洞AI模型转移猥材料,以创建儿童的明确图像并将其分发给青少年。

与此同时,美国陆军士兵塞思·赫雷拉(Seth Herrera)也因涉嫌使用人工智能聊天机器人将他认识的儿童的照片转化为性暴力图像而被指控侵犯儿童色情。

法律专家表示,尽管儿童的明确图像实际上受到儿童色情法的保护,但人工智能完全生成的图像的法律地位尚不清楚。

2002年,美国最高法院裁定,刑事定罪似乎显示儿童参与性活动的图像的法律是非宪法的,包括那些由计算机生成的图像。

除了执法工作外,儿童安全倡导者还专注于预防。一些非营利组织已成功从谷歌、亚马逊、Meta、OpenAI和Stability AI等大AI公司获得承诺,避免使用儿童性虐待图像进行AI模型培训,并监控其平台以防止材料传播。

“我不想将此描述为未来的问题,因为它现在已经发生,”Thorn数据科学副总裁Rebecca Portnoff说。