Twitterは、患者を分析する医師と同様に、ユーザーから有害なコンテンツを報告するための新しいシステムを起動します
ジャカルタ - Twitter Inc.は、ユーザーが見るコンテンツの何が悪いのかを簡単に説明できるように、悪意のあるツイートをユーザーが報告する方法の見直しを開始します。これは、12月7日(火曜日)にロイターが引用したソーシャルネットワーキングサイトの情報源によって確認されました。
この動きは、米国におけるTwitterのウェブユーザーの小さなテストから始まるもので、Twitter、メタプラットフォーム社、Alphabet Inc.のYouTubeなどのハイテク企業が、オンライン上で有害または性的虐待を受けたコンテンツからユーザーを保護するにはあまりにも少なすぎるという広範な批判の中で行われます。
ユーザーは、ツイートがTwitterのルールに違反している方法を報告するのではなく、会社のポリシーに関する知識を前提とし、憎悪的に攻撃されたり、嫌がらせを受けたり、激しく脅迫されたり、自傷行為に関連するコンテンツに取り上げられたりしたと感じるかどうかを尋ねられます。
ユーザーはまた、彼らが彼らに有害または不快ななどのコンテンツにフラグを立てた理由を自分の言葉で説明することが許可されると、Twitterが言いました。
このプロセスは、患者が経験している症状について患者に尋ねる医師に似ており、「足を折ったのか」のような質問ではなく、「どこで痛いですか」とTwitterの情報源は述べています。
Twitterのヘルスユーザーエクスペリエンスチームのデータサイエンティスト、ブライアン・ワイスマイヤー氏は声明の中で、「緊急の時には、人々の声を聞き、支持されていると感じる必要がある」と述べた。
Twitterは、この新しいプロセスにより、ルールに明示的に違反していないツイートに関するより詳細な情報を収集できるが、ユーザーはまだ問題や迷惑を感じる可能性があり、将来的に同社のポリシーを更新するのに役立つと付け加えた。
これは、Twitterがユーザーのセキュリティを向上させるために行った最新の変更です。同社は先月、人の同意なしに写真や動画などの「プライベートメディア」の共有を禁止し始めると述べた。