巴斯米男孩性虐待材料,Discord发布了两个新的安全功能
迪斯科德推出两项新功能,用于限制儿童性虐待材料(照片:Discord博士)

雅加达 - 迪斯科德终于引入了一项新功能,以保护未成年用户。他们通过Teen安全助理计划引入了此功能。

Teen Safety Assistmer是Discord在其平台上根除儿童性虐待材料(CSAM)的努力之一。这项工作也是为了保护青少年免受成人掠夺者的侵害。

Teen安全助理程序中有两个功能,即自动警报和内容过滤器。这两个功能都是在其系统上设置的,或自动设置的。

当青少年收到未识别用户的消息时,警告将自动显示,特别是当Discord检测到第一方消息的危害时。

从外国人收到消息的青少年将被引导到三种选择,包括回复消息、封锁帐户或相关安全提示。

同时,某人向青少年发送的敏感图像将自动与内容过滤器混合。除了混合外,此敏感图像还将被自动删除。

此功能可以通过“设置”关闭,并且可以为需要它的成人激活。换句话说,此过滤器可以对其平台的所有用户使用。

Discord在NBC新闻发现通过Discord平台起诉CSAM的165起案件后,开始专注于CSAM问题。事实上,一些成年人强迫青少年发送性照片。

此事变得严重后,Discord开始禁止青少年约会服务器,并禁止使用人工智能(AI)创建的CSAM共享。Discord还推出了一个专门针对父母的仪表板,以跟踪他们的孩子在Discord上如何玩耍。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)