シェア:

ジャカルタ - Discordはついに未成年のユーザーを保護するための新機能を発表しました。彼らはティーンの安全支援プログラムを通じてこの機能を導入しました。

ティーンエイジャーの安全アシスタントは、プラットフォーム上の児童性的虐待の素材(CSAM)を根絶するためのDiscordの取り組みの1つです。この取り組みは、ティーンエイジャーを成人の捕食者から保護するためにも行われます。

ティーンセーフティアシスタンプログラムには、オートアラートとコンテンツフィルタの2つの機能があります。これらの機能は両方とも、システム上でセンカレードまたはオートマチックに設定されています。

ティーンエイジャーが不明なユーザーからメッセージを受け取ると、特にDiscordがファーストパーティのメッセージからの危険を検出すると、アラートが自動的に表示されます。

見知らぬ人からメッセージを受け取るティーンエイジャーは、メッセージへの応答、アカウントのブロック、関連する安全上のヒントの3つの選択肢に誘導されます。

一方、誰かがティーンエイジャーに送信した機密画像は、コンテンツフィルタで自動的にブラッシングされます。ブラッシングとは別に、この機密画像は自動的に削除されます。

この機能は、[設定] でオフにでき、必要とする成人向けに有効にできます。言い換えれば、このフィルターはプラットフォームのすべてのユーザーに役立ちます。

Discordは、NBCニュースがDiscordプラットフォームを通じてCSAMに対する165件の訴追を発見した後、CSAM問題に焦点を当て始めました。実際、多くの大人がティーンエイジャーに性的な写真を送るように強制しました。

問題が深刻になった後、Discordは若者の出会い系サーバーを禁止し、人工知能(AI)で作成されたCSAM共有を禁止し始めました。Discordはまた、Discordで子供の遊び方を追跡するための親固有のダッシュボードを導入しました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)