موظفو OpenAI و Google DeepMind قلقون بشأن مخاطر الذكاء الاصطناعي ، يطلبون تنظيما أكثر صرامة
جاكرتا - أعربت مجموعة من الموظفين والموظفين السابقين في شركات الذكاء الاصطناعي (الذكاء الاصطناعي) ، بما في ذلك OpenAI المدعومة من Microsoft و Google DeepMind التابعة لشركة Alphabet ، يوم الثلاثاء ، 4 يونيو ، عن قلقها بشأن المخاطر التي تشكلها تقنية الذكاء الاصطناعي المتطورة.
وفي رسالة مفتوحة كتبها 11 موظفا وموظفا سابقا في شركة OpenAI بالإضافة إلى موظف وموظف سابق في Google DeepMind ، قالوا إن الدوافع المالية لشركة الذكاء الاصطناعي أعاقت الإشراف الفعال.
وأضافت الرسالة: "لا نعتقد أن هيكل حوكمة الشركات الذي تم طلبه أولا يكفي لتغيير هذا".
كما حذرت الرسالة من المخاطر الناجمة عن الذكاء الاصطناعي غير المنظم، بدءا من انتشار المعلومات الخاطئة إلى فقدان أنظمة الذكاء الاصطناعي المستقلة وعمق الظلم الحالي، الذي يمكن أن يؤدي إلى "قذف الإنسان".
وجد باحثون أمثلة على صانعي الصور من الشركات ، بما في ذلك OpenAI و Microsoft ، التي تنتج صورا تحتوي على معلومات مضللة تتعلق بالتصويت. على الرغم من وجود سياسة تحظر المحتوى.
وقالت الرسالة إن شركات الذكاء الاصطناعي لديها "التزام ضعيف" بتبادل المعلومات مع الحكومات حول قدرات وأنظمتها ومحدوديتها. وأضافوا أيضا أن هذه الشركات غير موثوقة لتبادل المعلومات طواعية.
الرسالة المفتوحة هي الأحدث التي تعبر عن المخاوف الأمنية المحيطة بتقنية الذكاء الاصطناعي التوليدية ، والتي يمكن أن تنتج النصوص والصور والصوت بسرعة وبأسعار زهيدة مثل البشر.
وحثت المجموعة شركات الذكاء الاصطناعي على تسهيل العمليات للموظفين الحاليين والموظفين السابقين للتعبير عن المخاوف المتعلقة بالمخاطر وعدم تنفيذ اتفاقيات السرية التي تحظر الانتقادات.
مطالبات OpenAI
وبشكل منفصل، قالت الشركة التي يقودها سام ألتمان يوم الخميس 30 مايو إنها داهمت خمس عمليات تأثير سرية تحاول استخدام نموذج الذكاء الخاص بها ل "أنشطة الاحتيال" عبر الإنترنت.