أنشرها:

جاكرتا - أبلغت هيئة حماية البيانات الإيطالية OpenAI بأن تطبيق ChatGPT الخاص بالذكاء الاصطناعي ينتهك قواعد حماية البيانات. وقد نقلت هيئة الرقابة ذلك يوم الاثنين 29 يناير/كانون الثاني، عندما استمر التحقيق الذي بدأ العام الماضي.

تعد السلطات ، المعروفة باسم Garante ، واحدة من أكثر السلطات استباقية في الاتحاد الأوروبي في تقييم امتثال منصة الذكاء الاصطناعي لنظام خصوصية بيانات التكتل. في العام الماضي ، حظروا ChatGPT لانتهاكات مزعومة لقواعد الخصوصية في الاتحاد الأوروبي.

ثم أعيد تنشيط الخدمة بعد أن تعاملت OpenAI مع القضايا ذات الصلة ، من بين أمور أخرى ، مع حق المستخدم في رفض إعطاء الموافقة على استخدام البيانات الشخصية لتدريب خوارزمياته.

في ذلك الوقت ، قالت الهيئة التنظيمية إنها ستواصل تحقيقاتها. لقد خلصوا منذ ذلك الحين إلى أن هناك عناصر تظهر انتهاكا محتملا لخصوصية البيانات أو أكثر ، كما جاء في بيان دون تقديم مزيد من التفاصيل.

ولم ترد شركة OpenAI على الفور على طلب للتعليق.

وقال جارانتي يوم الاثنين إن OpenAI ، المدعوم من Microsoft ، لديه 30 يوما لتقديم حجة دفاعية ، مضيفا أن تحقيقه سينظر في العمل الذي قام به فريق عمل أوروبي يتكون من هيئة مراقبة الخصوصية الوطنية.

كانت إيطاليا أول دولة في أوروبا الغربية تقيد ChatGPT ، وهو تطورها السريع اجتذب انتباه المشرعين والمنظمين.

بموجب لائحة حماية البيانات العامة في الاتحاد الأوروبي (GDPR) التي تم إدخالها في عام 2018 ، تواجه كل شركة تبين أنها تنتهك القواعد غرامات تصل إلى 4٪ من مبيعاتها العالمية.

في ديسمبر الماضي ، اتفق المشرعون وحكومات الاتحاد الأوروبي على شروط مؤقتة لتنظيم أنظمة الذكاء الاصطناعي مثل ChatGPT ، مما أقرب إلى اتخاذ خطوات لوضع قواعد تحكم التكنولوجيا.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)