أنشرها:

جاكرتا - قامت شركة الذكاء الاصطناعي OpenAI ، المدعومة من Microsoft ، بتفصيل إطار العمل لمعالجة الأمان في طرازاتها المتقدمة. ويشمل ذلك إعطاء المجلس سلطة إلغاء القرار الأمني، وهو ما ورد في الخطة المنشورة على موقعها على الإنترنت يوم الاثنين 18 ديسمبر.

لن تطبق OpenAI أحدث تقنياتها إلا إذا اعتبرت آمنة في مجالات خاصة مثل الأمن السيبراني والتهديدات النووية. كما شكلت الشركة مجموعة استشارية لمراجعة التقارير الأمنية وتقديمها إلى السلطة التنفيذية ومجلس إدارة الشركة. على الرغم من أن السلطة التنفيذية هي التي ستتخذ قرارا ، إلا أن المجلس لديه سلطة إلغاء القرار.

منذ إطلاق ChatGPT قبل عام ، أصبحت المخاطر المحتملة للذكاء الاصطناعي مصدر قلق كبير لكل من باحثي الذكاء الاصطناعي وعامة الناس. أذهلت تقنية الذكاء الاصطناعي التوليدية المستخدمين بقدرتهم على كتابة القصائد والإيساعات ، لكنها أثارت أيضا مخاوف أمنية مع قدرتها على نشر المعلومات المضللة والتلاعب بالبشر.

في أبريل/نيسان، وقعت مجموعة من قادة وخبراء صناعة الذكاء الاصطناعي رسالة مفتوحة تدعو إلى تأجيل لمدة ستة أشهر في تطوير نظام أقوى من نظام GPT-4 الخاص ب OpenAI، في إشارة إلى المخاطر المحتملة على المجتمع.

وجد استطلاع للرأي أجرته رويترز / إيبسوس في مايو أن أكثر من ثلثي الأمريكيين قلقون بشأن الآثار السلبية المحتملة للذكاء الاصطناعي ويعتقد 61٪ أنه يمكن أن يهدد الحضارة.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)