OpenAI يغير قواعد استخدام ChatGPT للاحتياجات العسكرية

جاكرتا - غيرت OpenAI ، الشركة التي أنشأت ChatGPT ، سرا قواعد الاستخدام وأزالت الحظر المفروض على استخدام أجهزة الدردشة وأدوات الذكاء الاصطناعي الخاصة بها لأغراض عسكرية.

حدث التعديل الوزاري بعد يوم الأربعاء 17 يناير ويتضمن إلغاء الجملة التي تنص على أن الشركة لن تسمح باستخدام النماذج في "الأنشطة التي لديها خطر كبير من الإصابات الجسدية ، بما في ذلك: تطوير الأسلحة والجيش والحرب".

وقال متحدث باسم OpenAI إن الشركة ، التي تجري محادثات لجمع الأموال بقيمة 100 مليار دولار ، تتعاون مع وزارة الدفاع في تطوير أدوات الأمن السيبراني المبنية لحماية برامج مفتوحة المصدر.

"لا تسمح سياساتنا باستخدام أدواتنا لإيذاء الأشخاص أو تطوير الأسلحة أو مراقبة الاتصالات أو إصابة الآخرين أو إتلاف الممتلكات. ومع ذلك ، هناك حالات من استخدام الأمن القومي بما يتماشى مع مهمتنا "، قال متحدث باسم OpenAI ، نقلا عن VOI من صحيفة ديلي ميل.

وأضاف: "على سبيل المثال، عملنا مع وكالة مشاريع البحوث الدفاعية المتقدمة (DARPA) لتشجيع إنشاء أدوات جديدة للأمن السيبراني لحماية برامج المصدر المفتوح التي تعتمد على البنية التحتية الحيوية والصناعة".

وليس من الواضح بعد ما إذا كانت حالة الاستخدام الفائدة هذه ستسمح بها في سياسة سابقة تحظر الاستخدام لأغراض " عسكرية". وردا على ذلك، فإن الغرض من تغيير السياسات هو توفير الوضوح والقدرة على إجراء مناقشات تتعلق بهذه المسألة.

وفي العام السابق، وقعت 60 دولة من بينها الولايات المتحدة والصين "دعوة عمل" للحد من استخدام الذكاء الاصطناعي لأغراض عسكرية. ومع ذلك، سلط خبراء حقوق الإنسان في لاهاي الضوء على أن "دعوة العمل" ليس لها قوة قانونية ولا تعالج المخاوف المتعلقة ب "كرات الحب" التي يمكن أن تقتل دون تدخل بشري.

وأعرب الطرفون الموقعون عن التزامهم بتطوير واستخدام الذكاء الاصطناعي العسكري وفقا ل "التزامات قانونية دولية وبطريقة لا تضر بالأمن الدولي والاستقرار والمساءلة".

استخدمت العديد من البلدان ، مثل أوكرانيا ، عمليات التعرف على الوجه وأنظمة الاستهداف بمساعدة الذكاء الاصطناعي في القتال ضد روسيا. في عام 2020 ، أطلقت القوات الحكومية الليبية طائرة بدون طيار مستقلة من طراز Kargu-2 تركية الصنع تهاجم القوات المتمردة المتراجعة. وهذه هي المرة الأولى في التاريخ التي تنفذها طائرات بدون طيار مستقلة، وفقا لتقرير للأمم المتحدة.

وقالت آنا ماكانجو، نائبة رئيس الشؤون العالمية في شركة OpenAI، في مقابلة هذا الأسبوع إن الأحكام "العامية" تمت إزالتها للسماح بالاستخدام العسكري المناسب لقيم الشركة.

ونقلت بلومبرغ عن مانججو قوله "بما أننا في السابق كان لدينا حظر شمل عسكريا بشكل أساسي، اعتقد الكثير من الناس أنه سيحظر العديد من حالات هذا الاستخدام، وهو ما يعتبره الناس متماشيا تماما مع ما نريد أن نراه في العالم".

كان استخدام الذكاء الاصطناعي من قبل منظمة "Big Tech" في السابق سببا في إثارة الجدل. في عام 2018 ، احتج الآلاف من موظفي Google على عقد Pentagon - Project Maven - الذي ينطوي على استخدام أدوات الذكاء الاصطناعي للشركة لتحليل تسجيلات المراقبة للطائرات بدون طيار.

بعد الاحتجاج ، لم تمدد Google العقد. كما احتج موظفو مايكروسوفت على عقد بقيمة 480 مليون دولار لتوفير الجنود سماعات الواقع الإضافي.

في عام 2017 ، كتب قائد التكنولوجيا بما في ذلك إيلون ماسك رسالة إلى الأمم المتحدة تدعو إلى حظر الأسلحة ذاتية القيادة ، بموجب قانون مشابه لحظر الأسلحة الكيميائية والليزر المصممة لشل الرؤية البشرية.

وحذروا من أن الأسلحة المستقلة يمكن أن تدخل "الثورة الثالثة في الحرب"، بعد الثورة الأولى بالمسحوق، والأسلحة النووية الثانية. كما ذكر الخبراء بأنه بمجرد فتح "صندوق باندورا" للأسلحة بشكل مستقل تماما ، قد لا يكون من الممكن إغلاقها مرة أخرى.