雅加达 - Twitter 公司将测试发送通知时, 有人回复推文与冒犯性和伤害性的语言。此举旨在清理社交媒体上的负面对话。长期以来,人们一直敦促推特清理仇恨和辱骂性的内容。
据路透社报道,当用户发送推文回复时,他们会收到通知,他们的推文中的单词与已发布的单词相似。然后,用户将被问及是否要修改它。
Twitter负责信任和安全的全球政策主管苏妮塔•萨利格拉姆(Sunita Saligram)表示:"我们试图鼓励人们在上传之前重新考虑自己的行为,重新思考自己的语言,因为他们经常处于一种热烈的气氛中,他们可能会说一些后悔的话。
推特说,这项政策将于5月5日星期二开始,至少持续几个星期。此政策将在全球实施,但仅针对英语推文。
Twitter 的政策不允许用户以仇恨言论、种族主义或性别歧视以及有辱人格的内容为目标。此类微博用户可以举报或标记违反规则的内容。
去年,Twitter对近39.6万个违反政策的账户采取了行动,1月至6月间,超过58.4万个账户因仇恨言论而采取行动。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)