雅加达 - 2021年,苹果推出了最新的安全功能,其中包括iCloud照片上的儿童性骚扰材料(CSAM)检测。发布前,此功能受到了很多批评。

在测试期间,由于隐私问题,许多用户和开发人员批评了该功能。在不确定时间的情况下推迟该功能后,Apple终于停止了iCloud服务中推出CSAM检测系统。

原来,这次发布的取消也给苹果带来了两难境地。原因是,该公司不得不面对数千名CSAM受害者的诉讼。之所以提出这一要求,是因为苹果未能推出儿童色情检测和报告系统或CSAM。

根据Arstechnica的一份报告,原告声称苹果故意利用网络安全辩护,无视CSAM报告义务。该公司还被认为利用了他们目前实施的政策。

iCloud 中没有CSAM检测系统,Apple被认为允许掠夺者利用iCloud。原因是,掠夺者可以保存大多数科技公司报告的CSAM。

投诉人还解释说,苹果去年仅报告了267起CSAM案件,尽管其他四大科技公司提交了超过3200万份报告。这些发现可能会给苹果在审判中的地位带来负担。

如果苹果在陪审团听证会上失败,他们可能会被罚款超过12亿美元。Apple还可能被迫重新插入可以识别、删除和报告存储在iCloud上的CSAM的功能。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)