雅加达 - WhatsApp 不会采用苹果的步骤来创建儿童安全功能。此功能旨在阻止虐待儿童图像的传播。

在Twitter的一篇帖子中,WhatsApp总裁威尔·卡斯卡特解释了他的信念,即苹果"已经构建了能够扫描手机上所有个人照片的软件",并说苹果在试图改善对儿童性虐待材料(CSAM)的反应方面走错了路。

苹果计划于8月5日(星期四)宣布,该计划包括检索上传到iCloud的哈希图像,并将它们与包含已知CSAM图像的数据库进行比较。

据苹果称,它允许它存储加密的用户数据,并在设备上运行分析,同时仍然允许它向当局报告用户,如果他们被发现共享虐待儿童的图像。

Apple 儿童安全战略的另一个分支涉及,如果 13 岁以下的孩子发送或查看包含色情内容的照片,则可选择性地向家长发出警告。苹果的一份内部备忘录承认,人们会"担心"该系统的影响。

Cathcart称苹果的做法"令人深感担忧",称这将允许对何种图像有不同的想法的政府要求苹果将非CSAM图像添加到比较图像的数据库中,这是不可接受的。

Cathcart说,WhatsApp打击剥削儿童的系统部分利用了用户报告,保持了像苹果一样的加密技术,并导致该公司到2020年向国家失踪和受剥削儿童中心报告了40多万例病例。苹果还与CSAM检测中心合作。

WhatsApp 的所有者 Facebook 有理由因为隐私问题而抨击苹果。苹果对iOS 14.5广告跟踪工作方式的改变,开动了两家公司之间的争斗。Facebook批评苹果的隐私变更对小企业有害。苹果对此进行了报复,称这一变化"只要求"用户选择是否被跟踪。

批评苹果新儿童安全措施的不仅仅是 WhatsApp 。引起关注的人和组织包括爱德华·斯诺登、电子前沿基金会、教授等。

约翰霍普金斯大学教授马修·格林在这项功能被公开之前,就将其推倒重来。他在推特上谈到了苹果的计划,以及哈希系统如何被政府和不良行为者滥用。

EFF发表了一份声明,谴责苹果的计划,或多或少地称其为"有详细记录的后门,经过深思熟虑,覆盖面狭窄"。EFF新闻稿详细解释了他们认为苹果的儿童安全措施可能被政府滥用,以及它们如何减少用户隐私。

肯德拉·阿尔伯特是哈佛大学网络法律诊所的讲师,他了解了奇怪的孩子的潜在危险,以及苹果在家长通知功能的年龄范围方面缺乏初步的明确性。

爱德华·斯诺登转发了英国《金融时报》一篇关于该系统的文章,对苹果的所作所为给出了自己的特点。

政治家布莱恩娜·吴称这个系统为"苹果历史上最糟糕的主意"。

作者马特·布莱兹(MattBlaze)还在推特上表示担心,技术可能会被高层政府滥用,试图阻止CSAM以外的内容。

Epic首席执行官蒂姆·斯威尼也批评了苹果,称苹果"默认情况下将每个人的数据都吸进iCloud"。他还承诺分享有关苹果儿童安全系统的更具体的想法。

然而,并不是每个反应都是至关重要的。阿什顿·库彻自 2011 年以来一直在为结束儿童易做宣传工作,他称苹果的工作是消除 CSAM 工作的巨大进步。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)