バスミ児童性的虐待資料、Discordは2つの新しいセキュリティ機能をリリース

ジャカルタ - Discordはついに未成年のユーザーを保護するための新機能を発表しました。彼らはティーンの安全支援プログラムを通じてこの機能を導入しました。

ティーンエイジャーの安全アシスタントは、プラットフォーム上の児童性的虐待の素材(CSAM)を根絶するためのDiscordの取り組みの1つです。この取り組みは、ティーンエイジャーを成人の捕食者から保護するためにも行われます。

ティーンセーフティアシスタンプログラムには、オートアラートとコンテンツフィルタの2つの機能があります。これらの機能は両方とも、システム上でセンカレードまたはオートマチックに設定されています。

ティーンエイジャーが不明なユーザーからメッセージを受け取ると、特にDiscordがファーストパーティのメッセージからの危険を検出すると、アラートが自動的に表示されます。

見知らぬ人からメッセージを受け取るティーンエイジャーは、メッセージへの応答、アカウントのブロック、関連する安全上のヒントの3つの選択肢に誘導されます。

一方、誰かがティーンエイジャーに送信した機密画像は、コンテンツフィルタで自動的にブラッシングされます。ブラッシングとは別に、この機密画像は自動的に削除されます。

この機能は、[設定] でオフにでき、必要とする成人向けに有効にできます。言い換えれば、このフィルターはプラットフォームのすべてのユーザーに役立ちます。

Discordは、NBCニュースがDiscordプラットフォームを通じてCSAMに対する165件の訴追を発見した後、CSAM問題に焦点を当て始めました。実際、多くの大人がティーンエイジャーに性的な写真を送るように強制しました。

問題が深刻になった後、Discordは若者の出会い系サーバーを禁止し、人工知能(AI)で作成されたCSAM共有を禁止し始めました。Discordはまた、Discordで子供の遊び方を追跡するための親固有のダッシュボードを導入しました。