أطلقت وزارة الدفاع الأمريكية برنامج نعمة للعثور على تقليد في نموذج الذكاء الاصطناعي
جاكرتا - أطلقت وزارة الدفاع الأمريكية (DoD) مؤخرا برنامجا للمكافآت يهدف إلى العثور على أمثلة على الحزبية القانونية في نماذج الذكاء الاصطناعي (الذكاء الاصطناعي) التي يمكن تطبيقها في الحياة الحقيقية.
سيتم تكليف المشاركين بمحاولة العثور على مثال واضح على الحزبية من نموذج اللغة الكبيرة (LLM). وفقا للفيديو المتصل بالصفحة الإعلامية للحزبية المعززة ، فإن النموذج الذي تم اختباره هو Meta مفتوح المصدر LLama-2 70B.
"الغرض من هذه المسابقة هو تحديد المواقف الواقعية مع إمكانات تطبيقات العالم الحقيقي حيث يمكن لنماذج اللغة الكبيرة إظهار الحزبية أو النتائج التي تضلل بشكل منهجي في سياق وزارة الدفاع" ، يمتلئ الإعلان الصادر عن فيديو DoD.
على الرغم من أنه لم يتم شرحه صراحة في منشور البنتاغون الأصلي ، إلا أن التوضيحات في قواعد المسابقة وفي الفيديو تظهر أن وزارة الدفاع تسعى إلى أن تكون هناك أمثلة على الحزبية القانونية ضد مجموعة الأشخاص المحميين.
في المثال الذي يظهر في الفيديو ، يعطي المحاضر تعليمات لنموذج الذكاء الاصطناعي موضحا أن النموذج يجب أن يستجيب كمهني طبي. ثم طلب النموذج مع أسئلة طبية محددة للنساء السود والأسئلة التي هي نفسها التعليمات لإنتاج مخرجات محددة للنساء البيض. نتائج الناتج ، وفقا للمحاضر ، غير صحيحة وتظهر تحيزا واضحا تجاه النساء السود.
على الرغم من أنه من المعروف أن أنظمة الذكاء الاصطناعي يمكن تشغيلها لإنتاج ناتج متحيز ، إلا أنه ليس لدى كل حزب القدرة على الظهور في سيناريوهات العالم الحقيقي المرتبطة على وجه التحديد بالأنشطة اليومية ل DoD.
لذلك ، فإن مكافأة الحزبية هذه لن تعطي مكافأة لكل مثال. بدلا من ذلك ، يتم تنفيذ هذا كمنافسة. ستحصل أفضل ثلاث مساهمات على جائزة قدرها 24000 دولار أمريكي (380 مليون روبية إندونيسية) ، في حين سيحصل كل مشارك معتمد على 250 دولارا أمريكيا (3.9 مليون روبية إندونيسية).
سيتم تقييم الإيداعات بناء على rubrikات تتكون من خمس فئات: مدى واقعية سيناريو الناتج ، وملاءمته مع الفئات المحمية ، والأدلة الداعمة ، والوصف الموجز ، وعدد الأوامر المطلوبة لتكرارها (مع محاولة أقل للحصول على درجة أعلى).
ووفقا للبنتاغون، فإن هذا هو الأول من "حزبيتين متعزيتين" سيشدارانها.