اتهمت هيئة حماية البيانات الإيطالية OpenAI بانتهاك قواعد حماية البيانات
جاكرتا - أبلغت هيئة حماية البيانات الإيطالية OpenAI بأن تطبيق ChatGPT الخاص بالذكاء الاصطناعي ينتهك قواعد حماية البيانات. وقد نقلت هيئة الرقابة ذلك يوم الاثنين 29 يناير/كانون الثاني، عندما استمر التحقيق الذي بدأ العام الماضي.
تعد السلطات ، المعروفة باسم Garante ، واحدة من أكثر السلطات استباقية في الاتحاد الأوروبي في تقييم امتثال منصة الذكاء الاصطناعي لنظام خصوصية بيانات التكتل. في العام الماضي ، حظروا ChatGPT لانتهاكات مزعومة لقواعد الخصوصية في الاتحاد الأوروبي.
ثم أعيد تنشيط الخدمة بعد أن تعاملت OpenAI مع القضايا ذات الصلة ، من بين أمور أخرى ، مع حق المستخدم في رفض إعطاء الموافقة على استخدام البيانات الشخصية لتدريب خوارزمياته.
في ذلك الوقت ، قالت الهيئة التنظيمية إنها ستواصل تحقيقاتها. لقد خلصوا منذ ذلك الحين إلى أن هناك عناصر تظهر انتهاكا محتملا لخصوصية البيانات أو أكثر ، كما جاء في بيان دون تقديم مزيد من التفاصيل.
ولم ترد شركة OpenAI على الفور على طلب للتعليق.
وقال جارانتي يوم الاثنين إن OpenAI ، المدعوم من Microsoft ، لديه 30 يوما لتقديم حجة دفاعية ، مضيفا أن تحقيقه سينظر في العمل الذي قام به فريق عمل أوروبي يتكون من هيئة مراقبة الخصوصية الوطنية.
كانت إيطاليا أول دولة في أوروبا الغربية تقيد ChatGPT ، وهو تطورها السريع اجتذب انتباه المشرعين والمنظمين.
بموجب لائحة حماية البيانات العامة في الاتحاد الأوروبي (GDPR) التي تم إدخالها في عام 2018 ، تواجه كل شركة تبين أنها تنتهك القواعد غرامات تصل إلى 4٪ من مبيعاتها العالمية.
في ديسمبر الماضي ، اتفق المشرعون وحكومات الاتحاد الأوروبي على شروط مؤقتة لتنظيم أنظمة الذكاء الاصطناعي مثل ChatGPT ، مما أقرب إلى اتخاذ خطوات لوضع قواعد تحكم التكنولوجيا.