Instagram将向父母透露青少年自杀内容搜索

雅加达 - 社交媒体平台Instagram将开始通知父母,如果他们的青少年在应用程序中反复搜索与自杀或自残有关的内容。这项新政策由其母公司Meta宣布,将于下周在英国,美国,澳大利亚和加拿大推出,然后扩展到其他国家。

这是Instagram首次主动向父母发送有关其孩子搜索活动的信息。这不仅仅是阻止有害内容或将用户引导到外部援助服务。

Meta表示,将向使用Teen Accounts计划中的家长控制功能的父母发送警告,Teen Accounts是为限制接触有害内容而设计的青少年专用帐户系统。

在官方声明中,Meta解释说,通知将通过电子邮件,短信,WhatsApp或直接通过Instagram应用程序发送,具体取决于可用的联系信息。警告还将附有专家资源和指南,以帮助父母与孩子讨论这一敏感问题。

“这个提醒的目的是让父母知道他们的孩子在行为和搜索习惯方面发生了突然的变化,”Meta写道。该公司补充说,该系统将“优先考虑谨慎”,因此即使没有紧急情况,也可能发送提醒。

然而,这项政策引起了自杀预防组织Molly Rose Foundation的强烈批评。该基金会由Molly Russell的家人创立,Molly Russell是一名14岁的青少年,他在2017年死于社交媒体上接触自残和自杀内容,包括Instagram。

该基金会的首席执行官安迪·伯罗斯(Andy Burrows)认为,这项政策有造成负面影响的风险。

“这个看似草率的声明充满了风险,我们担心这种强制披露可能弊大于利,”伯罗斯说。

“每个父母当然想知道他们的孩子是否遇到了困难。但是这种脆弱的通知可能会让父母感到恐慌,并为随后发生的有害和困难的对话做好准备,“伯罗斯补充说。

伯罗斯还援引他的基金会之前的一项研究,该研究称Instagram仍然“积极”向易受伤害的青少年推荐与抑郁,自杀和自残有关的有害内容。

“重点应该是消除这种风险,而不是发布看起来像试图将责任推给父母的声明,”他说。

Meta否认了这一发现,并表示该基金会的报告“误解了我们赋予父母权力和保护青少年”的努力”。

除了通知功能外,Meta还透露了在未来几个月内扩大类似系统的计划。该公司将监控青少年在Instagram上与人工智能聊天机器人(AI)的对话,如果他们讨论自杀或自残的话题,因为越来越多的孩子转向人工智能寻求情感支持。

这一举措是在世界各国政府对社交媒体公司施加越来越大的压力之际出现的。今年早些时候,澳大利亚禁止16岁以下儿童使用社交媒体。西班牙、法国和英国等一些国家甚至印度尼西亚也在考虑类似的政策。

在美国,对大型科技公司的监管也越来越严格。Meta首席执行官马克·扎克伯格和Instagram负责人亚当·莫塞里甚至面临法庭听证会,以捍卫该公司免受他们故意瞄准年轻用户的指控。

随着这项新政策的出台,关于数字世界中青少年保护和隐私界限的争论再次浮出水面。这项措施是否真的保护了孩子,或者它是否在父母和青少年之间的信任关系中开辟了新的问题?时间会回答。