新しいポリシー: YouTube は死亡した被害者を模した AI コンテンツを削除
ジャカルタ - YouTube は、未成年者の死を「現実的にシミュレート」するコンテンツを制限するために、サイバーハラスメントと抑圧に関するポリシーを更新しました。
TechCrunchによると、このポリシーの変更は、一部の犯罪コンテンツクリエイターが、死亡した子供や行方不明の子供に関連する偽のコンテンツを作成する際にAIを使用したために発生します。
この場合、彼らは通常、AIを使用してケースの音を複製し、死亡を説明します。
「1月16日、未成年者の死を現実的にシミュレートするコンテンツ、または致命的または十分に文書化された主要な暴力イベントの被害者を攻撃し始め、彼らが経験した死や暴力を記述します」とYouTubeは公式発表に書いています。
ここ数ヶ月、ワシントンポストから情報を押収し、コンテンツクリエイターはAIを使用して、2歳の英国人ジェームズ・バルガーの誘拐と死など、さまざまな重要なケースを伝えてきました。
さらに、AIと共同で作成された、リゾートから姿を消した3歳の英国人子供マドレーヌ・マッキャンについての物語もあります。
カリフォルニアで母親とガールフレンドに拷問され殺された8歳の少年ガブリエル・フェルナンについての物語もあります。
この不安のために、YouTubeはついに新しいポリシーに違反するコンテンツを削除するための決定的な措置を講じました。
違反したユーザーについては、1週間ビデオ、ライブストリーム、ストーリーをアップロードできないという警告を受けます。3回の警告の後、彼らのチャンネルはYouTubeから永久に削除されます。