据报道,苹果已经删除了儿童性虐待材料(CSAM)的扫描工具,该工具最近引起了争议。

MacRumors于12月16日星期四首次报道,苹果已经删除了其儿童安全网站上所有提及扫描功能的内容。目前尚不清楚究竟是什么原因导致这种情况的发生。

即便如此,苹果很可能并不完全认真对待召回CSAM扫描,可能是该公司将进一步开发它,但随着在其网站上召回此功能,暗示功能推出不会很快发生。

今年八月,苹果推出了一套计划中的新的儿童安全功能,包括扫描用户的 iCloud 照片库中的 CSAM、在接收或发送露骨色情照片时提醒儿童及其父母的通信安全功能,以及扩展 Siri 和"搜索"中的 CSAM 指南。

在宣布这一消息后,该功能受到各种个人和组织的批评,包括安全研究人员,隐私举报人,电子前沿基金会(EFF),Facebook的前安全主管,政治家,政策团体,大学研究人员,甚至苹果自己的一些员工。

大多数批评都是针对在苹果计划中的设备中检测CSAM,并被研究人员批评为依赖于接近监视的恶意技术。此功能也值得怀疑,因为它不能有效地识别儿童性虐待的图像。

最初,苹果试图通过发布详细信息,分享常见问题解答,各种新文件,与公司高管的访谈等来消除一些误解并安抚用户,以减轻担忧。然而,尽管苹果做出了努力,但争议并没有消失。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)