Apple تقاضي ضحايا المسؤولية الاجتماعية للشركات بسبب إلغاء ميزة اكتشاف المحتوى في iCloud

جاكرتا - في عام 2021 ، أطلقت Apple أحدث ميزة للسلامة تتضمن الكشف عن مواد التحرش الجنسي بالأطفال (CSAM) في صور iCloud. قبل إصدارها ، تلقت هذه الميزة الكثير من الانتقادات.

خلال فترة الاختبار ، انتقد العديد من المستخدمين والمطورين الميزة بسبب قضايا الخصوصية. بعد تأجيل الميزة دون يقين من الوقت ، أوقفت Apple أخيرا إطلاق نظام الكشف عن CSAM على خدمة iCloud.

اتضح أن إلغاء هذا الإطلاق تسبب أيضا في معضلة لشركة Apple. والسبب هو أنه كان على الشركة مواجهة دعاوى قضائية من الآلاف من ضحايا CSAM. تم رفع هذه المطالبة لأن Apple فشلت في إطلاق نظام للكشف عن المواد الإباحية والإبلاغ عنها للأطفال أو CSAM.

وفقا لتقرير Arstechnica ، يدعي المدعون أن Apple استخدمت عمدا دفاعات الأمن السيبراني لتجاهل الالتزام بالإبلاغ عن CSAM. وتعتبر الشركة أيضا تستفيد من السياسات التي تنفذها حاليا.

في غياب نظام الكشف عن CSAM داخل iCloud ، يعتبر Apple تمنح الحيوانات المفترسة الإذن باستخدام iCloud. والسبب هو أن الحيوانات المفترسة يمكنها تخزين CSAM التي تم الإبلاغ عنها من قبل معظم شركات التكنولوجيا.

كما أوضح المبلغون عن المخالفات أن شركة آبل لم تبلغ عن سوى 267 حالة CSAM خلال العام الماضي ، في حين قدمت أربع شركات تكنولوجيا كبرى أخرى أكثر من 32 مليون تقرير. هذه النتيجة يمكن أن تثقل كاهل موقف آبل في المحاكمة.

إذا خسرت Apple محاكمة هيئة محلفين ، فمن المحتمل أن يتم تغريمها أكثر من 1.2 مليار دولار. قد تضطر Apple أيضا إلى إعادة تضمين ميزات يمكنها تحديد ومحو والإبلاغ عن المسؤولية الاجتماعية للشركات المخزنة في iCloud.