雅加达 - Instagram 母公司Meta Platform Inc.于 4月11日星期四宣布,该平台将测试一项暗示包含裸体或色情的消息的功能,以保护青少年并防止欺诈者到达青少年。这样做是为了缓解其应用程序中对恶意内容的担忧。
这家科技公司在美国和欧洲正面临越来越大的压力,指责其应用程序是成瘾的,并加剧了年轻人的心理健康问题。
Meta表示,Instagram直播消息的保护功能将使用设备上的机器学习来分析通过该服务发送的图像是否含有裸体。
默认情况下,此功能适用于18岁以下的用户,Meta 将通知成人鼓励他们启用此功能。
“由于图像是在设备本身上分析的,因此在端到端加密聊天中,裸照保护也将起作用,Meta将无法访问这些图像 - 除非有人选择向我们报告,”Meta说。
与Meta的Messenger和WhatsApp应用程序不同,Instagram上的直播消息没有加密,但该公司曾表示计划为该服务实施加密。
Meta还表示,它正在开发技术,以帮助识别可能参与性感欺诈骗局的帐户,并且正在为可能与这些帐户交互的用户测试新的弹出消息。
1月,这家社交媒体巨头宣布,它将在Facebook和Instagram上从青少年那里隐藏更多特定内容,并补充说这将使他们更难找到自杀,自杀和饮食障碍等敏感内容。
加利福尼亚州和纽约州在内的33个美国州的司法部长于10月起诉该公司,称Meta一再误导公众其平台的危害。
在欧洲,欧盟委员会曾要求提供有关Meta如何保护儿童免受非法和恶意内容侵害的信息。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)