شكلت OpenAI لجنة أمنية جديدة لتدريب أحدث طراز الذكاء الاصطناعي
جاكرتا - شكلت OpenAI لجنة أمن وسلامة سيقودها أعضاء مجلس الإدارة ، بما في ذلك الرئيس التنفيذي سام ألتمان ، مع بدء أحدث تدريب على نماذج الذكاء الاصطناعي (الذكاء الاصطناعي). تم الإعلان عن ذلك من قبل الشركة الناشئة الذكاء الاصطناعي يوم الثلاثاء 28 مايو.
كما سيقود مديرا بريت تايلور وآدم دانجيلو ونيكول سيليغمان هذه اللجنة، وفقا لمدونة شركة OpenAI. أثار Chatbot OpenAI المدعوم من Microsoft ، والذي يتمتع بقدرات الذكاء الاصطناعي التوليدية مثل التفاعل في المحادثات مثل البشر وإنشاء الصور بناء على أوامر نصية ، مخاوف تتعلق بالأمن مع قوة نموذج الذكاء الاصطناعي هذا.
غادر الرئيس السابق للعلوم إيليا سوتسكير ويان ليك ، اللذان قادا سابقا فريق OpenAI Superalignment الذي يضمن الحفاظ على الذكاء الاصطناعي وفقا للأهداف المطلوبة ، الشركة في وقت سابق من هذا الشهر. قامت OpenAI بحل فريق Superalignment في أوائل مايو ، بعد أقل من عام من تشكيل الفريق ، حيث تم نقل العديد من أعضاء الفريق إلى مجموعات أخرى.
ستكون هذه اللجنة الجديدة مسؤولة عن تقديم توصيات إلى المجلس بشأن قرارات السلامة والأمن لمشاريع وعمليات OpenAI. تتمثل مهمة اللجنة الأولى في تقييم وتطوير المزيد من الممارسات الأمنية ل OpenAI خلال الأيام ال 90 المقبلة ، وبعد ذلك سيقومون بتوزيع التوصيات على المجلس.
وقالت الشركة إنه بعد مراجعة مجلس الإدارة ، ستشارك OpenAI علنا تحديثات تتعلق بالتوصيات المعتمدة. ومن بين أعضاء آخرين في اللجنة الرئيس العلمي المعين حديثا، جاكوب باتشوكي، ومات نايت، رئيس الأمن. كما ستستشير الشركة خبراء آخرين ، بما في ذلك روب جويس ، المدير السابق للأمن السيبراني في وكالة الأمن القومي الأمريكية وجون كارلين ، المسؤولين السابقين في وزارة العدل.
لا تقدم OpenAI مزيدا من التفاصيل حول نموذج "الحدود" الجديد الذي يتم تدريبه ، ما لم يكن النموذج سيجلب أنظمتهم إلى "المستوى التالي من القدرات في طريقهم إلى AGI". في أوائل مايو ، أعلنت OpenAI عن نموذج الذكاء الاصطناعي جديد قادر على إجراء محادثات صوتية واقعية وتفاعلات عبر النصوص والصور.