تكشف الدراسات أن الذكاء الاصطناعي يميل إلى الوقوف إلى الجانب السياسي يسارا الاتجاه

جاكرتا - تكشف أحدث الدراسات أن نماذج اللغات الكبيرة (LLM) مثل Google Gemini و OpenAI ChatGPT و Grok التابعة لإيلون ماسك تميل إلى أن يكون لها تحيز سياسي يساري. أظهرت الأبحاث التي أجراها ديفيد روزادو ، الأستاذ في جامعة أوتاغو باليتيكنيك في نيوزيلندا ، أن معظم LLM التي تم اختبارها أنتجت إجابات أكثر تقدمية وديمقراطية وتوجه نحو قيم مثل المساواة والتقدم.

أجرى روزادو 11 اختبارا للتوجه السياسي ، بما في ذلك اختبار الكومباس السياسي والاختبار السياسي ل Eysenck ، على 24 نموذجا لغويا ، بما في ذلك GPT 3.5 و GPT-4 من OpenAI و Gemini من Google و Claude من Anthropic و Grok من Twitter و Llama 2 و Mistral و Qwen من علي بابا. تظهر نتائج الاختبار أن الإجابات التي تقدمها LLM تعكس عموما وجهات نظر السياسة اليسرى.

وشملت الدراسة أيضا التمويه الرقيق في GPT 3.5 لتغيير تفضيلاتها السياسية. يطلق على النموذج غير المعدل علامة LeftWingGPT ، في حين أن النموذج المعدل هو RightWingGPT.

يتم تدريب LeftWingGPT من خلال منشورات تميل إلى اليسار مثل The Atlantic و The New Yorker ، في حين يتم تدريب RightWingGPT على محتوى من منشورات وكتاب تميل إلى اليمين مثل National Review و Roger Scruton.

أظهرت نتائج الصم الرقيق أن RightWingGPT أظهرت تفضيلا سياسيا أكثر ميلا إلى اليمين ، لكن روزادو أشار إلى أن الدراسة لم تتمكن من تحديد ما إذا كانت هذه التفضيلات السياسية تأتي من مرحلة التدريب المبكر أو الصم الرقيق.

وشدد روزادو على أن هذه النتيجة لا تشير إلى أن هذه التفضيلات السياسية تم تطبيقها عمدا من قبل المنظمات التي تطبق المجالس القانونية. ومع ذلك، فإن العديد من المجالس القانونية القائمة اليوم تظهر تفضيلات سياسية أكثر ميلا إلى اليسار عند تقييمها من خلال اختبارات مختلفة للتوجه السياسي.

وأثارت هذه النتائج مخاوف بشأن تكامل الذكاء الاصطناعي في منتجات مثل محركات البحث في جوجل، والتي تلقت انتقادات بشأن التدخل في نتائج البحث المتعلقة بالسياسة.