苹果在不久的将来取消推出虐待儿童照片扫描功能
据报道,苹果已经删除了儿童性虐待材料(CSAM)的扫描工具,该工具最近引起了争议。
MacRumors于12月16日星期四首次报道,苹果已经删除了其儿童安全网站上所有提及扫描功能的内容。目前尚不清楚究竟是什么原因导致这种情况的发生。
即便如此,苹果很可能并不完全认真对待召回CSAM扫描,可能是该公司将进一步开发它,但随着在其网站上召回此功能,暗示功能推出不会很快发生。
今年八月,苹果推出了一套计划中的新的儿童安全功能,包括扫描用户的 iCloud 照片库中的 CSAM、在接收或发送露骨色情照片时提醒儿童及其父母的通信安全功能,以及扩展 Siri 和"搜索"中的 CSAM 指南。
在宣布这一消息后,该功能受到各种个人和组织的批评,包括安全研究人员,隐私举报人,电子前沿基金会(EFF),Facebook的前安全主管,政治家,政策团体,大学研究人员,甚至苹果自己的一些员工。
大多数批评都是针对在苹果计划中的设备中检测CSAM,并被研究人员批评为依赖于接近监视的恶意技术。此功能也值得怀疑,因为它不能有效地识别儿童性虐待的图像。
最初,苹果试图通过发布详细信息,分享常见问题解答,各种新文件,与公司高管的访谈等来消除一些误解并安抚用户,以减轻担忧。然而,尽管苹果做出了努力,但争议并没有消失。