雅加达 - 有传言称,这家科技巨头苹果被起诉,因为他们没有在iCloud上实施照片检测系统来扫描儿童性虐待材料(CSAM)。

根据《纽约时报》的一份报告,这名27岁女子以恶意名义提起的诉讼提到,苹果没有扫描系统的决定迫使受害者再次经历创伤。

实际上,2021年,苹果已经宣布了该系统,并且已经从国家失踪和剥削儿童中心以及其他团体那里获得了数字签名,以检测用户iCloud图书馆中已知的CSAM内容。

但不幸的是,在安全和隐私支持者认为该系统可能为政府监管创造漏洞之后,该计划似乎被抛在后面。

这名女子在诉讼中说,一名亲戚在婴儿时虐待她,并在网上分享了自己的照片。他还声称,他几乎每天都会收到执法部门关于被指控拥有这些照片的人的通知。

参与诉讼的律师詹姆斯·马什(James Marsh)表示,有一组潜在的2,680名受害者有权在本案中获得赔偿。

苹果发言人还向《纽约时报》发表了有关该诉讼的评论,称它“处于迅速状态,并积极创新以打击这些犯罪,而不会损害我们所有用户的安全和隐私”。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)