أنشرها:

جاكرتا - تلقت Gemini ، نموذج الذكاء الاصطناعي (الذكاء الاصطناعي) الذي صنعته Google ، انتقادات بسبب الصور غير الدقيقة أو الخيوط من التاريخ. ألمح خطأ في هذه الصورة الذكاء الاصطناعي إلى القضايا العنصرية.

واحدة من الصور من Gemini التي كانت في دائرة الضوء كانت بحثا عن الجيش الألماني في الحقبة النازية في عام 1943. تعتبر نتائج الصورة مخيبة للآمال لأنها تتضمن أشخاصا ذوي بشرة ملونة ونساء يرتدين ملابس الجيش.

وفقا لجون لو ، مستخدم X الذي عثر على الصورة ، لم يتم التفكير في آلية Gemini الذكاء الاصطناعي بعناية. على الأرجح ، تم تصميم خوارزمية Gemini للتنوع ، لكن Google تتجاهل موضوع مناقشتها.

يتم الحديث بشكل متزايد عن مشكلة الصور التي أنشأها Gemini ، الذي كان بارد سابقا. حاول عدد ليس بقليل على الفور النتائج وانتقدوها لذلك ردت Google من خلال حساباتها على وسائل التواصل الاجتماعي.

جاكرتا - قدم فريق الاتصالات في Google اعتذارا. إنهم يعترفون بأن الذكاء الاصطناعي الجوزاء ينتج صورا متنوعة للغاية. لسوء الحظ ، هذا التنوع غير دقيق وحتى نسيج للتاريخ الحالي.

"لقد أنتج جيل صورة الجوزاء الكثير من الناس. وهو أمر جيد بشكل عام لأن الناس في جميع أنحاء العالم يستخدمونه. لكنه ليس على الهدف هنا" ، قال فريق الاتصالات في Google يوم الخميس ، 22 فبراير.

الشيء الوحيد الذي يمكن لشركة Google القيام به الآن هو تحسين خوارزمية التعلم من الذكاء الاصطناعي Gemini. صرح فريق الاتصالات في Google: "نحن نعمل على إتقان هذا النوع من التصوير على الفور".

في السابق ، كان Gemini معروفا باسم Bard.ChatbotTo Google يمكنها إنتاج صور الذكاء الاصطناعي مجانا باستخدام نظام إدخال نصي. عندما كانت لا تزال تعرف باسم بارد ، لم تتعرض Google أبدا لانتقادات بسبب نتائج الصور العنصرية للغاية.

يبدو أن خطأ Gemini هذا قد نوقش على نطاق واسع لأن Google تسلط الضوء على الذكاء الاصطناعي الاصطناعي الخاص بها. على الأقل ، مع ظهور هذه الانتقادات ، يمكن ل Google تحسين خوارزميات التعلم الذكاء الاصطناعي الخاصة بها وتطويرها.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)