الباحث الرئيسي في مجال الأمن ليليان وينغ استقال من OpenAI
جاكرتا - ستفقد OpenAI أحد الباحثين الرئيسيين في مجال السلامة. في يوم السبت ، نوفمبر ، قال نائب رئيس البحوث والسلامة في OpenAI Lilian Weng إنه سيترك الشركة.
من خلال منصة X ، أوضح Weng أنه سيعمل حتى 15 نوفمبر. سيترك Weng الشركة لبدء رحلة جديدة وتعلم المزيد من الأشياء.
"بعد العمل في OpenAI لمدة 7 سنوات تقريبا ، قررت التوقف. تعلمت الكثير والآن أنا مستعد للبدء مرة أخرى والقيام بشيء جديد".
كشف الرئيس السابق لفريق أنظمة السلامة في OpenAI أنه تجاوز تحديات العمل المختلفة. عندما انضم لأول مرة ، كان على Weng تعلم الروبوتات الكاملة التي تتراوح من الخوارزميات إلى البرامج الثابتة.
تم التعامل مع هذا العمل بنجاح في غضون عامين. بعد ذلك ، بدأت OpenAI في دخول خطط GPT وكان على Weng وفريقه استكشاف طرق جديدة لتقديم أفضل نماذج الذكاء الاصطناعي (الذكاء الاصطناعي).
وقال وينغ: "لقد بنيت أول فريق أبحاث التطبيقات ، الذي أطلق الإصدار الأولي من API المحسن ، وواجهة برمجة تطبيقات التشحيم ، ونقطة نهاية الإشراف ، وبنيت أساسا لأعمال السلامة التطبيقية ، بالإضافة إلى حلول جديدة للعديد من عملاء API الأوائل".
تماشيا مع تطوير GPT ، قامت Weng بتدريب نماذج الذكاء الاصطناعي على التعامل مع الطلبات الحساسة وغير الآمنة ، وجعل روبوتات الدردشة OpenAI تعمل بشكل متوازن وتعطي الأولوية للسلامة ، بالإضافة إلى تطوير طرازات الاعتدال الرائدة في الصناعة.
وقال وينغ: "بالنظر إلى ما حققناه، أنا فخور جدا بالجميع في فريق الأمن وأنا متأكد جدا من أن الفريق سيستمر في النمو". "OpenAl في مسار نمو سريع وأتوقع الأفضل للجميع هنا."