苹果取消推出儿童性虐待材料检测功能,为什么?
雅加达 - 在Apple的iPhone,iPad和iCloud Photos上检测儿童性虐待材料或CSAM的工具显然已被取消。此前,此功能也受到了很多严厉的批评。
本周,苹果决定不继续使用他们提前为iCloud照片制定计划的CSAM检测功能。
“无需公司梳理个人数据,儿童也可以得到保护,我们将继续与政府,儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们更安全的地方。所有,“苹果说。
苹果于 2021 年首次宣布了 CSAM 检测功能,旨在帮助打击剥削儿童和促进安全,这个问题越来越受到科技界的欢迎。
然而,该计划立即引起了隐私和安全专家的抗议。他们认为CSAM检测功能最终可以重新用于寻找其他类型的内容。
12 月 9 日星期五,在宣布取消 CSAM 检测功能时,CNN 国际频道将重新集中精力开发通信安全功能,该功能于 2021 年 12 月首次推出。
通信安全功能是一种家长控制工具,用于在iMessage中传入或发送的图像附件带有露骨性内容时警告umut下的孩子。然后,该功能将掩盖它。
苹果宣布取消其CSAM扫描功能计划的同时,该公司推出了几项新的安全功能。
此前报道,苹果计划扩大iCloud数据的端到端加密,包括备份,照片,笔记,聊天记录和其他服务,此举可以进一步保护用户数据。
该工具被称为高级数据保护,将允许用户更安全地存储来自黑客,政府和间谍的某些数据,即使在Apple的数据泄露的情况下也是如此。