كشفت أداة التحقق من الامتثال لقانون الذكاء الاصطناعي عن نقاط الضعف في تقنيات التكنولوجيا الكبرى في الوفاء بلوائح الاتحاد الأوروبي
جاكرتا - يقال إن بعض نماذج الذكاء الاصطناعي الرائدة (الذكاء الاصطناعي) لم تستوف بشكل كامل لوائح الاتحاد الأوروبي من حيث الأمن السيبراني والإنتاج التمييزي. أظهر عدد من نماذج الذكاء الاصطناعي التوليدية من شركات التكنولوجيا الكبرى مثل Meta و OpenAI و Alibaba أوجه قصور في العديد من المجالات الأساسية للامتثال لقانون الذكاء الاصطناعي الأوروبي (الذكاء الاصطناعي) ، والذي من المتوقع أن يبدأ سنه تدريجيا في العامين المقبلين.
كان قانون الذكاء الاصطناعي هذا موضوعا للنقاش لسنوات ، خاصة بعد إطلاق ChatGPT من قبل OpenAI في نهاية عام 2022 مما أثار مناقشات واسعة النطاق حول المخاطر الوجودية المحتملة لهذه نماذج الذكاء الاصطناعي. أجبر ظهور المخاوف العامة واضعي السياسات على وضع لوائح أكثر صرامة تتعلق ب "الأغراض العامة" الذكاء الاصطناعي (GPAI) ، والتي تتضمن تقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT.
لاختبار الامتثال لهذه اللائحة ، تم استخدام أداة جديدة طورتها LatticeFlow الذكاء الاصطناعي ، وهي شركة ناشئة من سويسرا ، إلى جانب شركائها في ETH Zurich و INSAIT Bulgaria ، لاختبار نماذج الذكاء الاصطناعي التوليدية. تقيم الأداة نماذج الذكاء الاصطناعي من فئات مختلفة بنتيجة تتراوح بين 0 و 1 ، حيث تتضمن هذه الفئات جوانب تقنية مثل المرونة والأمن والمخاطر التمييزية المحتملة.
نتائج الاختبار ونقص نموذج الذكاء الاصطناعي
نشرت LatticeFlow لوحة تصنيف تظهر نتائج العديد من طرازات الذكاء الاصطناعي التي تم اختبارها. حصلت جميع شركات التكنولوجيا الكبرى مثل علي بابا وميتا وOpenAI و Anthropic و Mistral على متوسط درجة أعلى من 0.75. ومع ذلك ، تظهر بعض الموديلات أوجه قصور في الفئة الرئيسية التي يمكن أن تكون معرضة لخطر انتهاك قانون الذكاء الاصطناعي.
وفيما يتعلق بالنتائج التمييزية، توفر الأداة درجة منخفضة لنموذج "GPT-3.5 Turbo" من OpenAI، والذي حصل على درجة 0.46 فقط. في الواقع ، حصل نموذج "Qwen1.5 72B Chat" من Alibaba Cloud على درجة أقل ، وهي 0.37. يعكس هذا الإنتاج التمييزي التحيز البشري فيما يتعلق بالجنس والعرق والجوانب الأخرى ، والتي يمكن أن تنشأ عندما يطلب من نموذج الذكاء الاصطناعي إنتاج محتوى معين.
بالإضافة إلى ذلك ، في فئة "التخزين الترويجي" ، أي نوع الهجمات السيبرانية التي يخفي فيها المتسللون العروض الترويجية الضارة كمروجين شرعيين لسرقة المعلومات الحساسة ، حصل نموذج "Llama 2 13B Chat" من Meta على درجة منخفضة تبلغ 0.42 ، في حين حصل نموذج "8x7B Instruct" من Mistral على درجة أقل ، وهي 0.38.
وحصل كلود 3 أوبوس، وهو نموذج طورته شركة Anthropic بدعم من Google، على أعلى درجة متوسطة بلغت 0.89 درجة في فئات مختلفة، مما يجعله النموذج الأكثر مرونة من حيث الامتثال للوائح الأمنية والمرونة التقنية.
عقوبات كبيرة محتملة
تم تصميم أداة الفحص هذه وفقا لنص قانون الذكاء الاصطناعي ومن المتوقع أن تستمر في التحديث جنبا إلى جنب مع تنفيذ تدابير إنفاذ إضافية. وفقا للرئيس التنفيذي والمؤسس المشارك لشركة LatticeFlow ، بيتر تسانكوف ، توفر نتائج الاختبار هذه فكرة أولية تحتاج فيها الشركات إلى زيادة تركيزها على ضمان الامتثال لقانون الذكاء الاصطناعي.
وذكر أنه على الرغم من أن النتائج إيجابية بشكل عام ، إلا أنه لا تزال هناك "شقوق" يجب تصحيحها حتى يتمكن هذا النموذج التوليدي الذكاء الاصطناعي من تلبية المعايير التنظيمية.
وقال تسانكوف: "لا يزال الاتحاد الأوروبي يعزز معيار الامتثال ، لكننا يمكننا بالفعل رؤية بعض أوجه القصور في نماذج الذكاء الاصطناعي الحالية". "مع التركيز بشكل أكبر على التحسين من أجل الامتثال ، نعتقد أن مزودي النماذج يمكنهم الاستعداد بشكل جيد لتلبية المتطلبات التنظيمية."
إذا فشلت الشركة في الامتثال لقانون الذكاء الاصطناعي هذا ، فقد تتعرض لغرامة قدرها 35 مليون يورو (حوالي 38 مليون دولار أمريكي) أو 7٪ من حجم الأعمال السنوي العالمي ، بغض النظر عن أيهما أكبر. وهذا يضع ضغوطا كبيرة على شركات التكنولوجيا لإصلاح أوجه القصور التي تم الكشف عنها من خلال هذا الاختبار.
حاليا ، لا يزال الاتحاد الأوروبي يعمل على تحديد كيفية إنفاذ قواعد قانون الذكاء الاصطناعي ، خاصة بالنسبة للأدوات التوليدية الذكاء الاصطناعي مثل ChatGPT. ويجتمع خبراء لمجموعة مدونة ممارسات من المتوقع أن تكتمل بحلول ربيع عام 2025.
على الرغم من أن المفوضية الأوروبية لا تستطيع التحقق من الأدوات الخارجية ، إلا أنها تم إبلاغها طوال تطوير أداة الفحص هذه ووصفتها بأنها خطوة أولى مهمة في تنفيذ قانون الذكاء الاصطناعي. وقال متحدث باسم المفوضية الأوروبية: "ترحب المفوضية بهذه الدراسة ومنصة تقييم نماذج الذكاء الاصطناعي كخطوة أولى في ترجمة قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى متطلبات فنية".
وامتنعت العديد من شركات التكنولوجيا التي تم اختبار نماذجها، مثل ميتا وميسترا، عن التعليق. وفي الوقت نفسه، لم ترد شركات مثل علي بابا وأنثروبيتش وأوباناي على الفور على طلبات للتعليق على نتائج هذا الاختبار.