جاكرتا - هناك مخاوف من أن وزارة الدفاع (DoD) قد "بنت روبوت قاتل في الطابق السفلي" قد تؤدي إلى لوائح الذكاء الاصطناعي أكثر صرامة تتطلب الموافقة على جميع الأنظمة قبل تنفيذها.
وفقا لمايكل هورويتز ، نائب مساعد وزير الدفاع الأمريكي ، قامت DoD مؤخرا بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط "الارتباك الكبير" حول كيفية تخطيطها لاستخدام آلات صنع القرار الآلية في ساحة المعركة.
وأوضح هورويتز في حدث هذا الشهر أن "التوجيه لا يحظر تطوير أي نظام"، لكنه "سيشرح ما هو مسموح به وغير مسموح به" ويدعم "الالتزام بالسلوك المسؤول"، أثناء تطوير نظام حكم ذاتي مميت.
وعلى الرغم من أن البنتاغون يعتقد أن التغييرات ينبغي أن تخفف من مخاوف الجمهور، إلا أن البعض يقول إنهم ليسوا "واثقين جدا" من هذه الجهود.
أثارت أنباء تحديث "الحكم الذاتي في نظام الأسلحة" في البنتاغون في عام 2012 نقاشا عبر الإنترنت ، حيث قال الكثيرون "إذا قال البنتاغون إنهم لا يفعلون ذلك ، فسيفعلون ذلك بالتأكيد".
قامت وزارة الدفاع بتحديث أسلحتها بشكل مكثف باستخدام الطائرات بدون طيار ذاتية القيادة والدبابات والأسلحة الأخرى التي تختار وتهاجم أهدافا دون تدخل بشري.
"هذه الأسلحة تحمل خطرا كبيرا على التصعيد غير المرغوب فيه" ، قال مارك براكل ، مدير منظمة الدعوة في معهد مستقبل الحياة (FLI) ، نقلا عن VOI من DailyMail.com
وأوضح أن الأسلحة التي تعمل بالطاقة الذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل أشعة الشمس، وتعتبره تهديدا، وبالتالي مهاجمة القوى الأجنبية دون سبب.
وقال براكل إن النتائج يمكن أن تكون مدمرة للغاية لأنه "بدون سيطرة بشرية ذات مغزى ، فإن الأسلحة التي تعمل الذكاء الاصطناعي مثل حادث الصواريخ النرويجية الذي يكاد يكون كارثة نووية ، مع قوة مزدوجة ويمكن أن تزيد من خطر وقوع حوادث في مناطق النزاع مثل مضيق تايوان.
تشجع DoD على اتخاذ إجراءات عالمية لمراقبة الأسلحة الذكاء الاصطناعي من خلال مطالبة البلدان الأخرى بدعم الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي ، وحتى نوفمبر ، دعمت 47 دولة المبادرة.
وقال هورويتز خلال لجنة في 9 يناير إن وزارة الدفاع تركز بشكل كبير على بناء ثقة الجمهور وثقته في هذه التقنية وأن الإدارة ملتزمة بالامتثال للقانون الإنساني الدولي.
وقال براكل: "يجب أن يكون الاختبار الحقيقي لكل مديرية جديدة مرئيا كم عدد الأسلحة التي تم استبعادها أو تغييرها بشكل كبير". "لم نر أي دليل على أن التغييرات في المديرية لها تأثير حقيقي على كيفية تطوير الأسلحة."
لا يتم تطوير الأنظمة العسكرية المستقلة من قبل الولايات المتحدة فحسب ، بل تمتلك الصين وروسيا أيضا مستودعاتهما من الأسلحة التي تعمل بالطاقة الذكاء الاصطناعي والتي تستخدم حاليا في حربين.
أعلنت وزارة الدفاع الأمريكية (البنتاجون) في نوفمبر أنها ستطلق سراح الآلاف من المركبات ذاتية القيادة القائمة على الذكاء الاصطناعي بحلول عام 2026 لمتابعة التخلف الأمريكي عن خصومها.
ووفقا لنائبة وزير الدفاع كاثلين هيكس في أغسطس/آب، تهدف هذه المبادرة الطموحة - التي تسمى Replicator - إلى "تسريع التقدم المحرز في تحول الابتكار العسكري الأمريكي إلى الاستفادة من المنصات الصغيرة والذكية والرخيصة والعديدة.
وقال هورويتز: "المفاعل نفسه يدور حول عملية". "الأمر يتعلق بالبحث عن طريقة... يمكننا التثبيت بسرعة وعدد كبير من القدرات الرئيسية التي نعتبرها مهمة وفقا لاستراتيجية الدفاع الوطنية".
وقال هورويتز أيضا إن الدكتورة تركز بشكل كبير على بناء ثقة الجمهور وثقته في هذه التكنولوجيا وأن الوزارة ملتزمة بالامتثال للقانون الإنساني الدولي.
ومع ذلك، فإن أعضاء آخرين في FLI غير متأكدين من القواعد الأكثر صرامة وكيف سينفذها البنتاغون.
"الأمر يشبه حقا فتح صندوق باندورا ، وسيكون من الصعب جدا التراجع" ، قالت آنا هيزر ، التي تقود أبحاث أنظمة الأسلحة المستقلة ل FLI ، ل The Hill.
وأضاف "سأجادل بأن البنتاغون ينظر إلى استخدام الذكاء الاصطناعي في الأغراض العسكرية على أنه يعادل بداية العصر النووي".
"لذلك هذه تكنولوجيا جديدة لا نفهمها. وإذا نظرنا إلى هذا على أنه سباق تسلح، الذي يقوم به البنتاغون، فيمكننا التوجه نحو كارثة عالمية".
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)