ジャカルタ - internet Watch Foundation(IWF)は、小児性愛者が人工知能(AI)を使用して、子供の頃の有名人の性的画像でインターネットを濫させたとき、「彼らの最悪の悪夢が叶った」と述べた。
IWFは、AIモデルは有名人の顔を「変える」ことと、俳優の子供の写真を性的に見せるために使用されると述べています。
子供の顔と体は、何千もの新しい虐待画像を生成できる特別なAIを訓練するために実際に使用されています。
IWFによると、これらの画像の多くは非常に現実的であるため、訓練を受けた調査官でさえ、それらを元の写真と区別するのが難しいと感じるでしょう。
研究者らは、有名な女性歌手の画像を含む、月にダークネットフォーラムの1つに約3,000の合成画像が投稿されたことを発見しました。
IWFによると、虐待被害者の1枚の画像が撮影され、さまざまな虐待設定でより多くの被害者の画像を生成するために使用されるという傾向が発展しています。
IWFはまた、ダークネットフォーラムで小児性愛者からの不穏なコメントを共有し、画像の品質を称賛し、より多くの画像を生成する方法について議論しました。
IWFは、当面の間、この画像を作成する際に身体的に拷問を受けた子供はいないが、被害者に重大な心理的損害を与え、捕食行動を正常化したと警告した。
ほとんどのAI画像は、最も軽度のカテゴリであるカテゴリCに分類されますが、5つの画像のうち1つは、最も深刻な虐待の一形態としてカテゴリAです。
IWFはまた、ますます高品質のAIイメージが新しいレベルに達していると述べました。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)