シェア:

ジャカルタ - Twitter Inc.は、誰かが不快で傷ついた言葉でツイートに返信したときに通知を送信することをテストします。この動きは、ソーシャルメディア上の否定的な会話をクリアすることを目的としています。Twitterは長い間、憎悪的で虐待的なコンテンツをクリーンアップするよう促されてきました。

ロイターが報告したツイートの返信をユーザーが送信すると、ツイートの単語が報告された投稿と似ているという通知が表示されます。その後、ユーザーはそれを修正するかどうか尋ねられます。

「私たちは、人々がしばしば熱い雰囲気の中にいるので、アップロードする前に自分の行動を再考し、言語を再考することを奨励しようとしています、そして、彼らは彼らが後悔していることを言うかもしれません」と、Twitterの信頼とセキュリティのための政策のグローバルヘッド、スニタ・サリグラムは言いました。

Twitterは、このポリシーは5月5日火曜日に始まり、少なくとも数週間続く予定だと述べた。このポリシーは、英語のツイートに対してのみグローバルに実装されます。

Twitterのポリシーは、ユーザーがヘイトスピーチ、人種差別や性差別、コンテンツの劣化を持つ個人をターゲットにすることを許可していません。このようなマイクロブログのユーザーは、ルールに違反するコンテンツを報告したり、フラグを立てたりすることがあります。

昨年、Twitterはポリシー違反で約396,000件のアカウントに対して行動を起こし、1月から6月の間にヘイトスピーチに対して584,000件以上の訴訟を起こしました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)