أنشرها:

جاكرتا - في الأشهر الثلاثة الماضية ، أعلنت OpenAI أنها نجحت في تعطيل عمليات سرية تحاول استخدام نموذج الذكاء الاصطناعي الخاص بها لدعم أنشطة الاحتيال على الإنترنت.

عادة ما يستخدم المحتالون الذكاء الاصطناعي لإنشاء تعليقات قصيرة ومقالات طويلة بلغات مختلفة ، وإنشاء أسماء سيرة ذاتية لحسابات وسائل التواصل الاجتماعي ، وإجراء أبحاث مفتوحة المصدر ، وخفض الرمز البسيط ، وترجمة النص وتصحيحه.

يركز المحتوى الذي نشرته هذه العمليات على مجموعة متنوعة من القضايا ، بما في ذلك الغزو الروسي لأوكرانيا ، والصراع في غزة ، وانتخابات الهند ، والسياسة في أوروبا والولايات المتحدة ، وانتقادات للحكومة الصينية من قبل المعارضين الصينيين والحكومات الأجنبية.

عادة ما تهدف هذه العملية إلى زيادة مشاركة الجمهور أو الوصول إليه بشكل كبير. ومع ذلك ، بفضل جهود OpenAI ، رأوا طوال شهر مايو ، فشلت العملية في الحصول على جمهور كبير.

وهكذا، تعزز OpenAI التزامها بإنفاذ السياسات التي تمنع إساءة الاستخدام وتزيد من الشفافية حول المحتوى الذي تنتجه الذكاء الاصطناعي.

وقالت الشركة: "نحن ملتزمون بتطوير الذكاء الاصطناعي الآمن والمسؤول، والذي يتضمن تصميم نموذجنا مع مراعاة السلامة والتدخل بشكل استباقي في الاستخدام الخبيث".

كما تواصل OpenAI إجراء تحقيقات متعمقة مع شركات أخرى ، لخلق تطوير الذكاء الاصطناعي المسؤول.

واختتم قائلا: "نحن مكرسون للعثور على هذه الانتهاكات والتخفيف من حدتها على نطاق واسع من خلال الاستفادة من قوة الذكاء الاصطناعي التوليدية".


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)