يذكر الخبراء الذكاء الاصطناعي الذي يتقن الخداع بأنه يمكن أن يشكل تهديدا في المستقبل
جاكرتا - العديد من أنظمة الذكاء الاصطناعي (الذكاء الاصطناعي) مؤهلة حاليا في خداع البشر والتلاعب بهم ويمكن أن "تستدير" ذلك في المستقبل. ويبدأ الخبراء في تحذيرهم من ذلك. في السنوات الأخيرة ، نما استخدام الذكاء الاصطناعي بشكل كبير ، لكن بعض الأنظمة تعلمت الاحتيال ، على الرغم من أنهم مدربون على أن يكونوا قادرين على المساعدة والإخلاص ، كما يقول العلماء.
في مقال مراجعة ، وصف فريق من معهد ماساتشوستس للتكنولوجيا مخاطر الاحتيال من قبل أنظمة الذكاء الاصطناعي ودعا الحكومة إلى تطوير لوائح قوية لمعالجة هذه القضايا في أسرع وقت ممكن.
قام الباحثون بتحليل الدراسات السابقة التي ركزت على الطرق التي تنشر فيها الذكاء الاصطناعي معلومات مزيفة من خلال الاحتيال الذي تمت دراسته ، مما يعني أنهم يتعلمون بشكل منهجي كيفية التلاعب بالآخرين.
كان المثال الأكثر وضوحا على الاحتيال الذكاء الاصطناعي الذي وجدوه هو CICERO من Meta ، وهو نظام مصمم للعب لعبة دبلوماسية تنطوي على تطوير التحالفات. على الرغم من تدريب هذه الذكاء الاصطناعي على أن تكون "أمانة إلى حد كبير ومساعدة" و "لا تخون أبدا عمدا" حلفاءها البشرية ، إلا أن البيانات تظهر أن هذه الذكاء الاصطناعي لا تلعب بشكل عادل وتعلمت أن تكون خبيرا في الاحتيال.
وتظهر أنظمة الذكاء الاصطناعي الأخرى القدرة على القتال في لعبة تكساس هارد للبوكر ضد اللاعبين البشريين المحترفين، وتزوير الهجمات خلال استراتيجية ستاركراف الثاني لهزيمة الخصوم، وتسيء تمثيل تفضيلاتهم للاستفادة من المفاوضات الاقتصادية.
وفقا للخبراء ، على الرغم من أنه قد يبدو غير ضار إذا تم خداع أنظمة الذكاء الاصطناعي في اللعبة ، إلا أن هذا يمكن أن يؤدي إلى "اختراق في قدرات الاحتيال الذكاء الاصطناعي" التي يمكن أن تتطور إلى شكل أكثر تقدما من الاحتيال الذكاء الاصطناعي في المستقبل.
حتى أن بعض أنظمة الذكاء الاصطناعي تعلمت خداع الاختبارات المصممة لتقييم أمنها. في إحدى الدراسات ، "تظاهر الكائنات الحية الذكاء الاصطناعي في جهاز المحاكاة الرقمي بالموت" لخداع الاختبارات التي تم بناؤها للقضاء على أنظمة الذكاء الاصطناعي المتكررة بسرعة.
"هذا يدل على أن الذكاء الاصطناعي يمكن أن "يجعل البشر يشعرون بالأمان بشكل مزيف" ، كما يقول الباحثون.
كما حذر النقاد من أن المخاطر القصيرة الأجل الرئيسية للاحتيال الذكاء الاصطناعي تشمل تسهيل ارتكاب الناس للاحتيال وإتلاف الانتخابات. في النهاية ، إذا كان هذا النظام قادرا على إتقان هذه المهارات غير السارة ، فقد يفقد البشر السيطرة عليهم ، كما أضافوا.
"ليس لدى مطوري الذكاء الاصطناعي أي فهم موثوق لما يسبب السلوك الذكاء الاصطناعي غير المرغوب فيه مثل الاحتيال. ولكن بشكل عام ، نعتقد أن الاحتيال ينشأ لأن الاستراتيجيات القائمة على الاحتيال تبين أنها أفضل طريقة للأداء الجيد في مهام تدريب الذكاء الاصطناعي المقدمة. تساعدهم الاحتيال على تحقيق أهدافهم "، قال الباحث الرئيسي بيتر بارك ، الخبير في الأمن الوجودي الذكاء الاصطناعي.
"نحن كجمهور نحتاج إلى أكبر قدر ممكن من الوقت للتحضير للاحتيال أكثر تقدما من منتجات الذكاء الاصطناعي المستقبلية والنماذج مفتوحة المصدر. ومع تطور قدرات الاحتيال في أنظمة الذكاء الاصطناعي، فإن المخاطر التي تنشأها على المجتمع ستصبح أكثر خطورة".
وتعليقا على هذه المراجعة، قال الدكتور هيبا سايليم، رئيس مجموعة أبحاث الذكاء الاصطناعي للطب الحيوي وعلوم البيانات: "تؤكد هذه الأوراق على الاعتبارات النقدية لمطوري الذكاء الاصطناعي وتؤكد على الحاجة إلى تنظيم الذكاء الاصطناعي. المخاوف الرئيسية هي أن أنظمة الذكاء الاصطناعي قد تطور استراتيجيات الاحتيال ، حتى عندما يكون تدريبها يهدف عمدا إلى الحفاظ على المعايير الأخلاقية ".
"مع أن نموذج الذكاء الاصطناعي أصبح أكثر استقلالية ، يمكن أن تزداد المخاطر المرتبطة بهذا النظام بسرعة. لذلك، من المهم زيادة الوعي وتوفير التدريب حول المخاطر المحتملة لمختلف أصحاب المصلحة لضمان أمن أنظمة الذكاء الاصطناعي".