AIによる児童性的虐待画像の脅威が増大している米国の検察官
ジャカルタ - 米国連邦検察官は、法執行機関がこの技術が違法な資料の急増を引き起こす可能性があることを恐れているため、人工知能(AI)ツールを使用して児童の性的虐待画像を操作または作成する容疑者を追跡することに集中しています。
米国司法省は今年、ジェネレーティブAIシステムを使用して子供の露骨な画像を作成したとして告発された被告に対して2つの刑事訴訟を起こしました。司法省のコンピュータ犯罪および知的財産局長のジェームズ・シルバー氏は、同様の事件が増えると警告した。
「私たちの懸念は、この正常化です」とシルバーはインタビューで語った。「AIはこのような画像を生成しやすくし、そのような画像が流通すればするほど、正常化します。それは私たちが本当に防がたいことです。
ジェネレーティブAIの出現はまた、この技術がサイバー攻撃、より洗練された暗号通貨詐欺、および選挙のセキュリティを損なうために使用されるという懸念を引き起こしました。
児童の性的虐待事件は、検察官がAI関連の犯罪に既存の米国の法律を適用しようとした最初の例の1つでした。たとえ成功したとしても、裁判所はこの新しい技術が児童取に関連する法的環境にどのように影響するかを検討する必要があるため、判決は上訴される可能性があります。
検察官や児童安全擁護者は、ジェネレーティブAIシステムにより、加害者は普通の子供の写真を性的に変更して表示でき、AIにより、法執行機関が嫌がらせの真の被害者を特定して見つけることが困難になる可能性があると警告しています。
オンラインでの児童取に関するレポートを収集する非営利団体である国立見逃し開発児童センター(NCMEC)は、ジェネレーティブAIに関連する月平均450件のレポートを受け取りましたが、全体のレポートの合計は昨年月間300万件に達しました。
AIによって生成されたセクシュアルハラスメント画像が含まれる事件は、特に特定可能な子供が説明されていない場合、新しい法的課題に直面するでしょう。そのような状況下では、検察官は、児童ポルノ法が適用されない場合、良識違反の罪を提出することができる。
例えば、5月、ウィスコンシン州のソフトウェアエンジニアであるスティーブン・アンダーセグは、ステーブル・ディフュージョンAIモデルを使用してわいせつな素材を転送し、子供の露骨な画像を作成し、ティーンエイジャーと共有した罪で起訴されました。
一方、米陸軍兵士のセス・エレーラも、AIチャットボットを使用して、知り合いの子供の写真を性的暴力の画像に変えたとして、児童ポルノ違反で起訴されました。
法律専門家は、実際に子供の露骨なイメージは児童ポルノ法によって保護されているが、AIによって完全に制作された画像の法的地位は不明のままであると言う。
2002年の米国最高裁判所は、コンピュータ生成を含む性的行為に関与している子供たちを示す画像を犯罪とする法律を違憲と宣言しました。
法律を執行する取り組みに加えて、児童安全擁護者は予防にも焦点を当てています。一部の非営利団体は、Google、Amazon、Meta、OpenAI、Stability AIなどの主要なAI企業から、児童の性的虐待画像を使用したAIモデルのトレーニングを避け、プラットフォームを監視して資料の拡散を防ぐというコミットメントを得ています。
「これは今すでに起こっているので、これを将来の問題として説明したくありません」と、ソーンのデータサイエンス担当バイスプレジデントであるレベッカ・ポートノフは、ロイターのVOIが引用した。