جاكرتا - يمكن للمهربين ومرتكبي الجرائم السيبرانية بسهولة الاستيلاء على أجهزة الكمبيوتر التي تعمل على نماذج الذكاء الاصطناعي المفتوحة المصدر خارج السياج الأمني والقيود التي تفرضها منصات الذكاء الاصطناعي الكبيرة. وهذا يخلق مخاطر وأوجه ضعف أمنية جديدة. وقد كشف الباحثون عن ذلك في دراسة صدرت يوم الخميس 29 يناير.
ووفقا للباحثين، يمكن للجناة استهداف أجهزة الكمبيوتر التي تعمل على نماذج اللغات الكبيرة (LLM) مفتوحة المصدر، ثم توجيهها للقيام بأنشطة غير قانونية مختلفة مثل عمليات البريد المزعج، وصنع المحتوى التصيد، والحملات المضلعة، مع تجنب بروتوكولات الأمن التي تنطبق عادة على منصات الذكاء الاصطناعي التجارية.
أجرت شركة الأمن السيبراني SentinelOne و Censys البحث معا لمدة 293 يوما ، وتم توزيعه حصريا على رويترز. يوفر البحث نظرة جديدة على نطاق إساءة الاستخدام المحتملة غير القانونية من الآلاف من عمليات التنفيذ المفتوحة المصدر ل LLM المنتشرة على الإنترنت.
وقال الباحثون إن إساءة الاستخدام المحتملة تشمل أنشطة القرصنة والخطابات الكارهة والتحرش والمحتوى العنيف أو الوحشي وسرقة البيانات الشخصية والاحتيال والاحتيال، وفي بعض الحالات تشمل المواد الإباحية للأطفال.
على الرغم من وجود الآلاف من متغيرات LLM مفتوحة المصدر ، فإن معظم النماذج المضغوطة على خوادم يمكن الوصول إليها عمومًا هي متغيرات من Llama الخاصة بـ Meta ، و Gemma من Google DeepMind ، وغيرها من النماذج. على الرغم من أن بعض النماذج المفتوحة المصدر زودت بواصات أمان ، فقد وجد الباحثون مئات الحالات التي تم فيها إزالة آليات الأمان عمدا.
ويُنظر إلى مناقشة صناعة الذكاء الاصطناعي المتعلقة بمراقبة الأمن على أنها لم تأخذ في الاعتبار بالكامل القدرة الزائدة لهذه النماذج التي تم استخدامها على نطاق واسع.
"إن المحادثات حول التحكم الأمني في صناعة الذكاء الاصطناعي تتجاهل هذه القدرات الفائضة التي تستخدمها بوضوح لأغراض مختلفة، بعضها قانوني، وبعضها واضح بشكل جنائي"، كما قال خوان أندريس غريرو - سعد، المدير التنفيذي لقطاع الاستخبارات والأبحاث الأمنية في SentinelOne.
واعتبر أن الوضع يشبه جبل جليدي غير مرئي بالكامل ولم يتم أخذه على محمل الجد من قبل الصناعة والمجتمع المفتوح المصدر.
هذا البحث يحلل تنفيذ LLM مفتوح المصدر متاح للجمهور ويجري من خلال Ollama ، وهي أداة تسمح للأفراد والمنظمات بتشغيل نسخهم الخاصة من مختلف نماذج اللغات الكبيرة.
وفي حوالي ربع LLM التي تمت مراقبتها، تمكن الباحثون من رؤية نظام الإرشاد، أي التعليمات التي تنظم سلوك النموذج. ومن هذه المجموعة، تم تقييم حوالي 7.5 في المائة على أنها قد تسمح بنشاط خطير.
جغرافيا، تعمل حوالي 30 في المائة من المضيفين الملاحظين من الصين، بينما تقع حوالي 20 في المائة في الولايات المتحدة.
وقال راشيل آدامز، الرئيس التنفيذي والمؤسس للمركز العالمي للحوكمة في مجال الذكاء الاصطناعي، في رسالة بالبريد الإلكتروني إنه بعد إصدار النموذج المفتوح المصدر للجمهور، فإن المسؤولية عن التأثير اللاحق هي مسؤولية مشتركة في جميع أنحاء النظام البيئي، بما في ذلك المختبرات التي وضعت النموذج.
"المختبرات ليست مسؤولة عن أي إساءة استخدام في المنبع ، والتي غالبا ما تكون صعبة التنبؤ بها. ومع ذلك ، لا يزال لديهم التزام باليقظة لتوقع المخاطر التي يمكن التنبؤ بها ، وتوثيق المخاطر المحتملة ، وتوفير الأدوات التخفيف والتوجيه ، خاصة بالنظر إلى قدرة إنفاذ القانون العالمية غير المتساوية".
ورفض متحدث باسم ميتا الإجابة على سؤال بشأن مسؤولية المطورين في التعامل مع إساءة استخدام نموذج المصدر المفتوح، لكنه أشار إلى وجود أدوات حماية لاما ودليل الاستخدام المسؤول للاما الذي توفره الشركة للمطورين.
وفي الوقت نفسه ، قال رام شنكار شيفا كومار ، قائد فريق Microsoft AI Red Team ، إن Microsoft تعتقد أن النماذج المفتوحة المصدر تلعب دورا هاما في العديد من المجالات. ومع ذلك ، أكد أن النماذج المفتوحة ، مثل التكنولوجيا التحويلية الأخرى ، يمكن أن تسيء استخدامها من قبل الأشرار إذا تم إصدارها دون ضمانات كافية.
وقال إن مايكروسوفت أجرت تقييما قبل الإطلاق، بما في ذلك تقييم المخاطر لسيناريوهات النماذج المتصلة بالإنترنت، أو المضيفة ذاتيا، أو تستخدم مع أدوات إضافية، حيث يتم تقييم إمكانية سوء الاستخدام على أنها أعلى. كما أنها تراقب بنشاط التهديدات وأنماط إساءة الاستخدام المتنامية.
وقال: "في النهاية، تتطلب الابتكارات المفتوحة المسؤولة التزاما مشتركا من صانعي النماذج، والجهات المنفذة، والباحثين، وأفرقة الأمن".
ولم ترد أوملا على طلبات التعليق، بينما لم ترد Alphabet (Google) وAnthropic على الأسئلة المطروحة.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)