جاكرتا - أظهرت أحدث تقارير Tenable بعنوان مخاطر أمن السحابة والذكاء الاصطناعي 2026 الفجوة بين المخاطر والتعاملات التجارية في معالجة التعرض للجريمة السيبرانية.
ويشير هذا إلى أن هناك اعتمادا كبيرا على الذكاء الاصطناعي. وتكشف نتائج Tenable أن هذا الفجوة مدفوع بتطوير الذكاء الاصطناعي الذي يتجاوز البشر في تقييم وتحسين مخاطر التعرض السيبراني.
ونتيجة لذلك، توجد فجوة لمرتكبي الجرائم لاستغلال البنية التحتية السحابية قبل أن يتصرف فريق الأمن. ولاحظ التقرير أن 70 في المائة من الشركات قد أدمجت حزم الذكاء الاصطناعي الخارجية دون مراقبة أمنية مركزية.
"إن الأنظمة الذكية المدمجة في البنية التحتية تشكل مخاطر خطيرة يجب أن يتعامل معها CISO ومحاربي الأمن" ، قال Liat Hayun ، نائب الرئيس الأول في Tenable في بيان تلقته VOI ، نقلا عن يوم الاثنين ، 23 فبراير.
وتظهر النتائج الأخرى أن 86 في المائة من الشركات تستخدم حزم كود طرف ثالث مع نقاط ضعف على مستوى حرجة. في الواقع ، نشر 13 في المائة منها حزم مع سجل من التعدي على البيانات التي تم الكشف عنها علنا.
كما تسلط الضوء على مشكلة الهوية لأن وكلاء الذكاء الاصطناعي لديهم الآن حق الوصول الذي نادرا ما يتم تدقيقها. حوالي 18 في المائة من الشركات على استعداد لمنح الإذن الإداري لخدمات الذكاء الاصطناعي. بشكل غير مباشر ، تمنح الشركات دخول مجاني للمهربين.
وتقدم خدمات الذكاء الاصطناعي مخاطر أعلى، تصل إلى 52 في المائة، مقارنة بالخدمات التي يديرها البشر مباشرة. بالإضافة إلى ذلك، تم العثور على العديد من "هويات شبح" في شكل بيانات اعتماد سحابة غير المستخدمة، ولكن لا تزال لديها حقوق وصول إدارية.
استنادا إلى هذه النتائج ، توصي Tenable المنظمات أو الشركات بتطبيق مبدأ الحقوق الدنيا في الوصول إلى أدوار الذكاء الاصطناعي. يجب أن تمتلك الشركات أيضا الرؤية في توحيد الضوابط في جميع مجموعات التعليمات البرمجية والهوية والبيئات السحابية.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)