أنشرها:

جاكرتا - تقترح جاكرتا - النمسا جهدا جديدا في تنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة التي يمكن أن تخلق ما يسمى ب "روبوتات القاتل". تستضيف البلاد حاليا مؤتمرا يهدف إلى إحياء المحادثات المترددة إلى حد كبير حول هذه المسألة.

ومع تطور تكنولوجيا الذكاء الاصطناعي بسرعة، فإن أنظمة الأسلحة التي يمكنها القتل دون تدخل بشري تقترب، مما يثير تحديات أخلاقية وقانونية تقول معظم البلدان إنها بحاجة إلى التعامل معها على الفور.

"يجب ألا نفوت هذه اللحظة دون اتخاذ أي إجراء. الآن هو الوقت المناسب للاتفاق على القواعد والمعايير الدولية لضمان السيطرة الإنسانية"، قال وزير الخارجية النمساوي ألكسندر شالينبرغ لمؤتمرات ومنظمات غير حكومية ودولية ومبعوثين من 143 دولة.

وقال في الكلمة الافتتاحية للمؤتمر بعنوان "الإنسانية على مفترق الطرق: أنظمة الأسلحة المستقلة والتحديات التنظيمية": "على العكس من ذلك، دعونا نضمن أن القرارات الأعمق والأوسع نطاقا، من يعيش ومن يموت، لا تزال في أيدي البشر وليس الآلات".

ولم تسفر سنوات المناقشة في الأمم المتحدة عن نتائج ملموسة طفيفة وقال العديد من المشاركين في المؤتمر الذي استمر يومين في فيينا إن نافذة الإجراءات تغلق بسرعة.

"من المهم جدا التصرف والتصرف بسرعة كبيرة" ، قالت رئيسة اللجنة الدولية للصليب الأحمر ، ميريانا سبولجاريك ، في حلقة نقاش في المؤتمر.

"ما نراه اليوم في سياق مختلف من العنف هو الفشل الأخلاقي أمام المجتمع الدولي. ولا نريد أن نرى مثل هذا الفشل يتسارع من خلال إعطاء المسؤولية عن العنف، عن السيطرة على العنف، للآلات والخوارزميات".

يتم استخدام الذكاء الاصطناعي بالفعل في ساحة المعركة. وقال دبلوماسيون إن الطائرات بدون طيار في أوكرانيا مصممة لإيجاد طريقها الخاص نحو الأهداف عندما تقررها تكنولوجيا تتبع الإشارات من المشغلين.

وقالت الولايات المتحدة هذا الشهر إنها تحقق في تقارير إعلامية تفيد بأن الجيش الإسرائيلي استخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)