雅加达 - 路透社获得的一份内部文件显示,使用Instagram后报告身体不良感受的青少年比其他用户更频繁地观看主题为“ 食用障碍相邻”的内容 - 或与饮食障碍和身体形象阴性相关的内容。
Meta的内部研究表明,青少年的主页上出现的帖子通常显示身体的某些部位,如胸部、臀部和大腿,并伴有对身体形状的明确评估,以及冒犯不健康饮食或对身体不满的内容。
在2023-2024学年,Meta采访了1,149名青少年,评估了他们在使用Instagram后对自己的身体感到多么频繁。令人惊讶的结果: 223名最常感到不满的青少年发现,他们看到了10.5%的饮食障碍主题内容,而其他群体则为3.3%。
Meta研究人员写道,经常对自己的身体感到不满的青少年比其他青少年看到的内容多三倍。此外,“成人”的挑衅性味道内容也更为普遍,包括“危险行为”,“暴力”和“遭受”的主题 - 总共达到他们看到的总内容的27%,几乎是未报告负面情绪的青少年群体的两倍。
即便如此,Meta强调,这项研究并没有证明Instagram与身体不良感觉的出现之间存在直接因果关系。可能是,已经具有阴性身体形象的青少年确实更积极地寻找这样的内容。
Meta发言人Andy Stone在一份声明中表示,这些发现表明该公司致力于理解和改进其产品。
「这项研究证明,我们正在认真理解青少年的体验,并利用这种洞察力来创建一个更安全、更具支持性的平台。斯通补充说,Meta现在正试图限制未成年用户的内容与PG-13的电影标准相匹配。
然而,该研究还发现Meta过滤系统存在重大弱点:98.5%的潜在的有害敏感内容未被自动监控算法检测到。研究人员承认,这“不可思议”,因为新的敏感内容检测系统仍处于开发阶段。
根据研究结果,密歇根大学儿科教授Jenny Radesky等外部专家称这些发现“令人担忧但可信”。
Radesky说:“这加强了这样一种观点,即患有心理障碍的青少年正在被Instagram算法分析,并获得更多的恶意内容曝光。
一些被认为有问题的内容样本包括内衣薄弱女性的图像、格斗视频和抑郁主题插图,其中写着“我该如何比较”和“完成它”。其中一张照片甚至显示一名女性的脖子受伤 - 尽管它没有违反平台规则,但研究人员认为内容足够极端,以至于在他们的报告中被给予“敏感内容”警告。
Meta本身承认,从家长、儿科医生到内食障碍和身体形象咨询委员会,多组人长期以来一直要求公司限制青少年身体主题内容的传播,因为它们有可能恶化心理健康。
这项研究增加了一长串的公众和监管机构对Instagram算法对年轻人的影响的担忧,因为美国一些学校区的联邦调查和诉讼指控Meta未能保护青少年用户免受其平台上的心理危害。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)