UE 批准在线服务中识别和消除儿童色情的规则草案

雅加达 - 欧盟立法者周三,22 Nevember 同意制定一项规则,要求Alphabet Google,Meta和其他在线服务在网上识别和删除儿童色情,强调端到端加密不会受到影响。

欧盟委员会去年提出的关于儿童性虐待材料(CSAM)的规则草案已成为在线安全措施支持者和关注监视的隐私活动家之间的争论。

欧盟高管们提出的CSAM提案是在公司涉及自愿检测和报告的现行制度被证明不足以保护儿童之后提出的。

欧盟立法者必须与成员国完成最终细节,然后该草案可能在明年可能完成的过程中成为法律。

拟议的法律迫使消息传递服务、应用商店和互联网接入提供商报告和删除已知和新形式的图像和视频,以及美化案例。

欧盟儿童性虐待中心将成立,作为专业知识中心,并向警方报告。

为了避免大规模监视,欧盟立法者加强了侦查令,允许司法当局以最后期限发出命令,以发现和删除CSAM。只有当有合理的理由怀疑儿童性虐待时,才能发布。

公司还将能够选择用于检测此类违规行为的技术,只要不受独立和公开审计的约束。

立法者从规则草案中排除端到端加密的决定得到了隐私活动家的好评。

欧洲自由青年组织(LYMEC)说:“欧洲议会的立场消除了歧视性的对话控制,只允许对某些人和团体进行有道理怀疑与具有司法令的儿童性虐待材料有关的个人和团体的直接监视。