أنشرها:

جاكرتا - أعلنت شركة Meta Platforms Inc يوم الاثنين 6 مارس أنها ستواصل إطلاق أدوات الذكاء الاصطناعي (الذكاء الاصطناعي) للباحثين المعتمدين على الرغم من الادعاءات في المنتديات عبر الإنترنت بأن أحدث نموذج لغوي رئيسي قد تم تسريبه إلى مستخدمين غير مصرح لهم.

"في حين أن هذا النموذج ليس في متناول الجميع ، وقد حاول البعض التحايل على عملية الموافقة ، نعتقد أن استراتيجية الإصدار الحالية تسمح لنا بالحفاظ على توازن المسؤولية والانفتاح" ، قال ميتا في بيان نقلته رويترز.

يمتلك Facebook Meta ، ويحافظ على قسم أبحاث الذكاء الاصطناعي كبير ، وفي الشهر الماضي أصدر LLaMA ، وهو اختصار ل Meta الذكاء الاصطناعي Big Language Model. تدعي Meta أن النموذج يمكنه تحقيق قدرات محادثة شبيهة بالإنسان من أنظمة الذكاء الاصطناعي أنشأها منشئو ChatGPT و OpenAI و Alphabet Inc ، ولكنه يستخدم فقط قوة حوسبة أقل بكثير.

على عكس بعض منافسيها مثل OpenAI ، التي تقيد بشدة تقنيتها وتفرض رسوما على مطوري البرامج للوصول إليها ، يشارك قسم الأبحاث في الذكاء الاصطناعي Meta الكثير من أعماله علنا. ومع ذلك ، فإن أدوات الذكاء الاصطناعي هذه لديها أيضا إمكانية إساءة الاستخدام ، مثل إنشاء ونشر معلومات خاطئة.

لتجنب هذا النوع من إساءة الاستخدام، تتيح ميتا أدواتها للباحثين والكيانات الأخرى التابعة للحكومة والمجتمع المدني والجامعات بموجب ترخيص غير تجاري بعد المرور بعملية الاختيار.

في الأسبوع الماضي ، ادعى المستخدمون في المنتدى عبر الإنترنت 4Chan أنهم جعلوا هذا النموذج متاحا للتنزيل. ولم يتسن لرويترز التحقق بشكل مستقل من هذا الادعاء.

في بيانها ، قالت Meta إن إصدار LLaMA الخاص بهم يتم التعامل معه بنفس الطريقة مثل النماذج السابقة وأنه ليس لديهم خطط لتغيير استراتيجيتهم.

قال ميتا: "هدف Meta هو مشاركة أحدث نماذج الذكاء الاصطناعي مع أعضاء مجتمع البحث لمساعدتنا في تقييم هذه النماذج وتحسينها".


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)