Apple 因取消iCloud 内容检测功能而被企业社会责任受害者起诉
雅加达 - 2021年,苹果推出了最新的安全功能,其中包括iCloud照片上的儿童性骚扰材料(CSAM)检测。发布前,此功能受到了很多批评。
在测试期间,由于隐私问题,许多用户和开发人员批评了该功能。在不确定时间的情况下推迟该功能后,Apple终于停止了iCloud服务中推出CSAM检测系统。
原来,这次发布的取消也给苹果带来了两难境地。原因是,该公司不得不面对数千名CSAM受害者的诉讼。之所以提出这一要求,是因为苹果未能推出儿童色情检测和报告系统或CSAM。
根据Arstechnica的一份报告,原告声称苹果故意利用网络安全辩护,无视CSAM报告义务。该公司还被认为利用了他们目前实施的政策。
iCloud 中没有CSAM检测系统,Apple被认为允许掠夺者利用iCloud。原因是,掠夺者可以保存大多数科技公司报告的CSAM。
投诉人还解释说,苹果去年仅报告了267起CSAM案件,尽管其他四大科技公司提交了超过3200万份报告。这些发现可能会给苹果在审判中的地位带来负担。
如果苹果在陪审团听证会上失败,他们可能会被罚款超过12亿美元。Apple还可能被迫重新插入可以识别、删除和报告存储在iCloud上的CSAM的功能。