أنشرها:

جاكرتا - أصدرت حكومة الولايات المتحدة يوم الخميس 16 فبراير إعلانا بشأن الاستخدام المسؤول للذكاء الاصطناعي (الذكاء الاصطناعي) في الجيش ، والذي سيشمل "المساءلة البشرية".

"ندعو جميع الدول للانضمام إلينا في تنفيذ المعايير الدولية ، من حيث صلتها بتطوير الذكاء الاصطناعي واستخدامه عسكريا" وكذلك الأسلحة ذاتية التشغيل ، قالت بوني جينكينز ، نائبة وزير الخارجية للحد من الأسلحة ، كما نقلت رويترز.

تحدث جينكينز في اجتماع دولي حول الاستخدام المسؤول الذكاء الاصطناعي العسكرية في لاهاي ، هولندا ، والتي كانت المرة الأولى.

يتم تجنب وتنظيم استخدام الذكاء الاصطناعي في الأسلحة وأسلحة القتل الجماعي بشكل صارم. في حين أن الذكاء الاصطناعي يمكن أن يساعد في تحسين الكفاءة والدقة في العمليات العسكرية، فإن استخدامه على أسلحة القتل يمكن أن ينطوي على مخاطر هائلة وغير أخلاقية.

ويمكن أن يثير استخدام الذكاء الاصطناعي في الأسلحة مسائل تتعلق بالمساءلة والمراقبة. يتعلق هذا بقدرة الأسلحة على اتخاذ قرارات مستقلة والقدرة على تنفيذ هجمات دون تدخل بشري. إذا حدث خطأ ما أو إغفال ، فمن الصعب تحديد المسؤول وهذا يمكن أن يكون له تأثير خطير للغاية على الأمن البشري.

بدلا من ذلك، يمكن تطبيق استخدام الذكاء الاصطناعي على العديد من الجوانب في العمليات العسكرية التي لا تنطوي على أسلحة اغتيال. على سبيل المثال ، في عملية جمع البيانات الاستخباراتية ، والتخطيط الاستراتيجي ، ومراقبة مناطق الصراع ، والخدمات اللوجستية.

وفي هذه الحالة، يمكن الذكاء الاصطناعي أن تساعد في تسريع وتحسين أداء العمليات العسكرية دون المساس بالأمن البشري. لذلك ، من الضروري وجود تنظيم صارم ومراقبة جيدة في تطبيق الذكاء الاصطناعي على العمليات العسكرية.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)