推特博客上的一篇文章显示,推特的算法比左算法更频繁地促进右倾内容。但原因尚不清楚。这一发现来自对Twitter政治内容算法放大的内部研究。
在研究期间,Twitter查看了2020年4月1日至8月15日期间发布的数百万条推文。这条微博来自加拿大、法国、德国、日本、西班牙、英国和美国的新闻媒体和民选官员。
在所有被研究的国家,除了德国,Twitter发现右倾账户"比政治左派接受更多的算法放大"。调查还发现,新闻媒体的右倾内容也受益于同样的偏见。
"关于政治外在群体的负面帖子往往在脸谱和推特上得到更多的参与。
Twitter说,它不知道为什么数据显示其算法支持右倾内容,并指出,这是一个"更难回答的问题,因为它是人与平台互动的产物。
然而,根据研究社交媒体的博士生史蒂夫·拉斯杰的说法,这或许不是Twitter算法的问题。他公布了他的研究结果,解释了关于政治外在群体的分裂内容如何更有可能传播开来。
Rathje说:"在我们的研究中,我们还对社交媒体上放大哪些类型的内容感兴趣,并发现了一致的趋势:关于政治外部团体的负面帖子往往在Facebook和Twitter上得到更多的参与。
"换句话说,如果民主党对共和党持负面评论(反之亦然),这类内容通常会得到更多的参与,"Rathje补充道。
如果你考虑Rathje的研究,这可能意味着Twitter上的右倾帖子会激起更多的愤怒,并导致放大。也许 Twitter 的算法问题与宣传 "有毒" 推文比某些政治偏见更相关。
如前所述,Twitter的研究表明,德国是唯一没有右倾算法偏差的国家。这可能与德国与 Facebook 、推特和谷歌在 24 小时内删除仇恨言论的交易有关。一些用户甚至在Twitter上将他们的国家改成了德国,以防止纳粹图像出现在这个平台上。
推特已经试图改变我们推文的方式一段时间了。2020年,Twitter开始测试一项功能,提醒用户何时发送辱骂性回复,就在今年,Twitter开始试用一条信息,当你认为你正在参与一场激烈的Twitter口水战时,这条信息就会弹出。
这些迹象表明 Twitter 已经对平台上的欺凌和仇恨帖子问题了解多少。
从Facebook泄露了一些内部文件的举报人弗朗西丝·豪根声称Facebook的算法支持仇恨言论和分裂性内容。Twitter 可能很容易处于同一位置, 但在发生泄漏之前公开分享了几次内部数据检查。
Rathje指出,其他研究发现,道德愤怒放大了从自由派和保守派观点传播的帖子,但比来自保守派的内容更成功。
他说,当涉及到算法推广等导致社交媒体传播的功能时,"应该做更多的研究来检查这个功能是否有助于解释Twitter上右翼内容的放大。
如果该平台进一步深入探讨了这个问题,并开放了其他研究人员的接触,最好处理问题核心的分裂性内容。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)