史蒂夫 · 拉斯杰透露推特算法更倾向于支持右翼内容去病毒

推特博客上的一篇文章显示,推特的算法比左算法更频繁地促进右倾内容。但原因尚不清楚。这一发现来自对Twitter政治内容算法放大的内部研究。

在研究期间,Twitter查看了2020年4月1日至8月15日期间发布的数百万条推文。这条微博来自加拿大、法国、德国、日本、西班牙、英国和美国的新闻媒体和民选官员。

在所有被研究的国家,除了德国,Twitter发现右倾账户"比政治左派接受更多的算法放大"。调查还发现,新闻媒体的右倾内容也受益于同样的偏见。

"关于政治外在群体的负面帖子往往在脸谱和推特上得到更多的参与。

Twitter说,它不知道为什么数据显示其算法支持右倾内容,并指出,这是一个"更难回答的问题,因为它是人与平台互动的产物。

然而,根据研究社交媒体的博士生史蒂夫·拉斯杰的说法,这或许不是Twitter算法的问题。他公布了他的研究结果,解释了关于政治外在群体的分裂内容如何更有可能传播开来。

Rathje说:"在我们的研究中,我们还对社交媒体上放大哪些类型的内容感兴趣,并发现了一致的趋势:关于政治外部团体的负面帖子往往在Facebook和Twitter上得到更多的参与。

"换句话说,如果民主党对共和党持负面评论(反之亦然),这类内容通常会得到更多的参与,"Rathje补充道。

如果你考虑Rathje的研究,这可能意味着Twitter上的右倾帖子会激起更多的愤怒,并导致放大。也许 Twitter 的算法问题与宣传 "有毒" 推文比某些政治偏见更相关。

如前所述,Twitter的研究表明,德国是唯一没有右倾算法偏差的国家。这可能与德国与 Facebook 、推特和谷歌在 24 小时内删除仇恨言论的交易有关。一些用户甚至在Twitter上将他们的国家改成了德国,以防止纳粹图像出现在这个平台上。

推特已经试图改变我们推文的方式一段时间了。2020年,Twitter开始测试一项功能,提醒用户何时发送辱骂性回复,就在今年,Twitter开始试用一条信息,当你认为你正在参与一场激烈的Twitter口水战时,这条信息就会弹出。

这些迹象表明 Twitter 已经对平台上的欺凌和仇恨帖子问题了解多少。

从Facebook泄露了一些内部文件的举报人弗朗西丝·豪根声称Facebook的算法支持仇恨言论和分裂性内容。Twitter 可能很容易处于同一位置, 但在发生泄漏之前公开分享了几次内部数据检查。

Rathje指出,其他研究发现,道德愤怒放大了从自由派和保守派观点传播的帖子,但比来自保守派的内容更成功。

他说,当涉及到算法推广等导致社交媒体传播的功能时,"应该做更多的研究来检查这个功能是否有助于解释Twitter上右翼内容的放大。

如果该平台进一步深入探讨了这个问题,并开放了其他研究人员的接触,最好处理问题核心的分裂性内容。