苹果取消推出儿童性虐待材料检测功能,为什么?
苹果,取消了儿童性虐待检测工具的推出。(照片:苹果博士)

雅加达 - 在Apple的iPhone,iPad和iCloud Photos上检测儿童性虐待材料或CSAM的工具显然已被取消。此前,此功能也受到了很多严厉的批评。

本周,苹果决定不继续使用他们提前为iCloud照片制定计划的CSAM检测功能。

“无需公司梳理个人数据,儿童也可以得到保护,我们将继续与政府,儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们更安全的地方。所有,“苹果说。

苹果于 2021 年首次宣布了 CSAM 检测功能,旨在帮助打击剥削儿童和促进安全,这个问题越来越受到科技界的欢迎。

然而,该计划立即引起了隐私和安全专家的抗议。他们认为CSAM检测功能最终可以重新用于寻找其他类型的内容。

12 月 9 日星期五,在宣布取消 CSAM 检测功能时,CNN 国际频道将重新集中精力开发通信安全功能,该功能于 2021 年 12 月首次推出。

通信安全功能是一种家长控制工具,用于在iMessage中传入或发送的图像附件带有露骨性内容时警告umut下的孩子。然后,该功能将掩盖它。

苹果宣布取消其CSAM扫描功能计划的同时,该公司推出了几项新的安全功能。

此前报道,苹果计划扩大iCloud数据的端到端加密,包括备份,照片,笔记,聊天记录和其他服务,此举可以进一步保护用户数据。

该工具被称为高级数据保护,将允许用户更安全地存储来自黑客,政府和间谍的某些数据,即使在Apple的数据泄露的情况下也是如此。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)