شاهد المدعون العامون الأمريكيون تهديدا متزايدا من صور التحرش الجنسي بالأطفال الناتجة عن الذكاء الاصطناعي
جاكرتا (رويترز) - يكثف المدعون الفيدراليون الأمريكيون بشكل متزايد في ملاحقة المشتبه بهم الذين يستخدمون أدوات الذكاء الاصطناعي للتلاعب بالطفل أو التقاط صور للاعتداء الجنسي عليه لأن سلطات إنفاذ القانون تخشى أن تؤدي هذه التكنولوجيا إلى طفرة في المواد غير القانونية.
رفعت وزارة العدل الأمريكية قضيتين جنائيتين هذا العام ضد المتهمين المتهمين باستخدام أنظمة الذكاء الاصطناعي التوليدية لإنتاج صور صريحة للأطفال. وحذر جيمس سيلفر، رئيس قسم جرائم الكمبيوتر والملكية الفكرية في وزارة العدل، من أن المزيد من الحالات المماثلة ستظهر.
"قلقنا هو هذا التطبيع" ، قال سيلفر في مقابلة. "الذكاء الاصطناعي يجعل من الأسهل إنتاج صور مثل هذه ، وكلما زاد عدد الصور من هذا القبيل ، يصبح هذا أكثر طبيعية. هذا شيء نريد حقا أن نمنعه".
كما أثار ظهور الذكاء الاصطناعي التوليدي مخاوف من أن التكنولوجيا ستستخدم في الهجمات الإلكترونية، وعمليات الاحتيال على العملات المشفرة الأكثر تقدما، وإلحاق الضرر بأمن الانتخابات.
جاكرتا إن قضية الاعتداء الجنسي على الأطفال هي واحدة من أولى الأمثلة على المدعين العامين الذين يحاولون تطبيق القانون الأمريكي الحالي على الجرائم المتعلقة الذكاء الاصطناعي. وحتى لو نجح ذلك، قد يواجه الحكم استئنافا حيث يتعين على المحكمة أن تنظر في كيفية تأثير هذه التكنولوجيا الجديدة على المشهد القانوني فيما يتعلق باستغلال الأطفال.
يحذر المدعون العامون والمدعون العامون في مجال سلامة الأطفال من أن أنظمة الذكاء الاصطناعي التوليدية تسمح للجناة بتغيير وعرض صور الأطفال العاديين جنسيا ، ويمكن أن تجعل الذكاء الاصطناعي من الصعب على سلطات إنفاذ القانون تحديد الضحايا الحقيقيين للتحرش والعثور عليهم.
تلقى المركز الوطني للأطفال النازحين والمدفوعين (NCMEC) ، وهي مجموعة غير ربحية تجمع تقارير عن استغلال الأطفال عبر الإنترنت ، ما معدله 450 تقريرا شهريا يتعلق الذكاء الاصطناعي التوليدي ، في حين بلغ إجمالي التقارير 3 ملايين تقريرا شهريا في العام الماضي.
وستواجه القضايا التي تنطوي على صور التحرش الجنسي التي تنتجها الذكاء الاصطناعي تحديات قانونية جديدة، خاصة عندما لا يتم تصوير الطفل الذي يمكن التعرف عليه. في مثل هذه الحالات ، يمكن للمدعين العامين تقديم اتهامات بانتهاكات الأخلاق إذا لم ينطبق قانون المواد الإباحية للأطفال.
على سبيل المثال ، في مايو ، اتهم ستيفن أندريغ ، مهندس البرمجيات من ولاية ويسكونسن ، بنقل مواد غير لائقة باستخدام نموذج الذكاء الاصطناعي Stable Distribution لإنتاج صور صريحة للأطفال ومشاركتها مع مراهق.
وفي الوقت نفسه، اتهمت جنود الجيش الأمريكي، سيث هيريرا، أيضا بارتكاب انتهاكات إباحية للأطفال بزعم استخدامها روبوتات دردشة الذكاء الاصطناعي لتغيير صور الأطفال الذين تعرفهم إلى صور للعنف الجنسي.
ويقول خبراء قانونيون إنه على الرغم من أن الصور الصريحة للأطفال محمية في الواقع بموجب قوانين إباحية الأطفال، إلا أن الوضع القانوني للصور التي يتم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي لا يزال غير واضح.
أعلنت المحكمة العليا الأمريكية في عام 2002 أنه من غير الدستوري قانون يجرم الصور التي يبدو أنها تظهر الأطفال المتورطين في الأنشطة الجنسية ، بما في ذلك تلك التي تنتجها أجهزة الكمبيوتر.
بالإضافة إلى جهود إنفاذ القانون، يركز مدافعو سلامة الأطفال أيضا على الوقاية. تمكنت العديد من المجموعات غير الربحية من الحصول على التزامات من شركات الذكاء الاصطناعي الكبرى ، مثل Google و Amazon و Meta و OpenAI و Stability الذكاء الاصطناعي ، لتجنب تدريب نماذج الذكاء الاصطناعي باستخدام صور التحرش الجنسي بالأطفال ومراقبة منصاتها لمنع انتشار المواد.
"لا أريد أن أوصف هذه المسألة بأنها مسألة مستقبلية ، لأنها حدثت الآن" ، قالت ريبيكا بورتنوف ، نائبة رئيس علوم البيانات في ثورن ، نقلا عن VOI من رويترز.