يحث خبراء الذكاء الاصطناعي على تنظيم أكثر صرامة ل Deepfake
جاكرتا - وقع عدد من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في الصناعة ، بما في ذلك أحد رواد التكنولوجيا ، يوشوا بينغو ، رسالة مفتوحة تدعو إلى تنظيم أكثر صرامة فيما يتعلق بإنشاء تزييف عميق. وهذا يشير إلى المخاطر المحتملة على المجتمع.
"في هذه الحجة ، غالبا ما تنطوي التزييف العميق على صور جنسية أو احتيال أو معلومات مضللة سياسية. نظرا لأن الذكاء الاصطناعي يتطور بسرعة ويجعل التزييف العميق أسهل بكثير ، هناك حاجة إلى الحماية "، قالت المجموعة في الرسالة ، التي أعدها أندرو كريتش ، الباحث في الذكاء الاصطناعي في جامعة كاليمانتان البريطانية بيركلي.
Deepfakes هي صور واقعية وصوتية ومقاطع فيديو يتم تصنيعها بواسطة خوارزميات الذكاء الاصطناعي ، وأحدث التطورات في التكنولوجيا تجعل من الصعب بشكل متزايد التمييز بينها وبين المحتوى الذي ينشئه البشر.
وتقدم الرسالة، التي تحمل عنوان "تعطيل سلاسل التوريد في التزييف العميق"، توصيات حول كيفية تنظيم التزييف العميق، بما في ذلك التجريم الكامل للمواد الإباحية للأطفال في التزييف العميق، والعقوبات الجنائية للأفراد الذين يتعمدون خلق أو تسهيل انتشار التزييف العميق الضار، ويطلبون من شركات الذكاء الاصطناعي منع منتجاتها من خلق تزييف عميق ضار.
وفي صباح الأربعاء 21 فبراير، وقع على الرسالة أكثر من 400 فرد من مختلف الصناعات بما في ذلك الأكاديميين والترفيه والسياسيين.
وكان من بين الذين وقعوا ستيفن بينكر، أستاذ علم النفس من جامعة هارفارد، جوي بولامويني، مؤسس رابطة العدالة الخوارزمية، ورئيسين إستونيين سابقين، وباحثين في Google، و DeepMind، وباحث من OpenAI.
يعد ضمان أنظمة الذكاء الاصطناعي لا تعرض المجتمع للخطر أولوية للمنظمين منذ أن كشفت OpenAI عن ChatGPT في نهاية عام 2022 ، مما يجعل المستخدمين يبدون وكأنهم يتواصلون كإنسان ويقومون بمهام أخرى.
كانت هناك العديد من التحذيرات من الأفراد البارزين حول مخاطر الذكاء الاصطناعي ، وخاصة رسالة وقعها إيلون ماسك العام الماضي تدعو إلى تأجيل لمدة ستة أشهر في تطوير نظام أقوى من نموذج الذكاء الاصطناعي GPT-4 التابع لشركة OpenAI.