儿童安全监管机构指控苹果隐瞒其真实的CSAM数字
雅加达 - 一个儿童保护组织透露,它在英国的苹果平台上发现的骚扰图像案件比苹果全球报告的更多。
2022年,苹果取消了检测儿童性虐待物质(CSAM)的计划,此前有人指控该系统将用于所有用户的监控。
苹果随后推出了一个名为“通信安全”的功能,该功能会自动阻止和消除发送给儿童的裸照。
英国国家儿童残酷预防协会(NSPCC)的《卫报》称,苹果已大幅减少了iCloud、FaceTime和iMessage等服务的CSAM事件报告。
所有美国科技公司都必须向国家失踪和被剥削儿童中心(NCMEC)报告已发现的CSAM病例,到2023年,苹果公司公布了267份报告。
该报告据称是全球CSAM的检测。然而,英国的NSPCC独立发现,苹果在2022年4月至2023年3月期间卷入了337起违规行为 - 仅在英国和威尔士州。
NSPCC儿童在线安全政策负责人理查德·科拉德(Richard Collard)表示:“英国苹果服务上发生的儿童骚扰图像犯罪数量与他们向当局提交的全球骚扰内容报告数量之间存在令人震惊的差异。
科拉德补充说:“苹果在处理儿童性虐待方面的许多同行显然落后于,因为所有科技公司都应该投资安全,为英国推出《在线安全法》做准备。
相比之下,谷歌在2023年报告了超过1,470,958例病例。同期,Meta在Facebook上报告了17,838,422例病例,在Instagram上报告了11,430,007例。
苹果表示,由于该服务被加密,他们无法查看用户iMessage消息的内容。然而,NCMEC指出,Meta的WhatsApp也被加密,但Meta在2023年报告了约1,389,618例疑似CSAM病例。
作为对这些指控的回应,据报道,苹果只提到了《卫报》之前关于用户整体隐私的声明。
一些虐待儿童专家也担心人工智能生成的CSAM图像。即将推出的Apple Intelligence不会制作逼真的照片。