جاكرتا - يقال إن شركة أبل العملاقة للتكنولوجيا قد رفعت دعوى قضائية لأنها لم تنفذ نظاما للكشف عن الصور لمسح مواد التحرش الجنسي بالأطفال (CSAM) على iCloud.
ووفقا لتقرير نشرته صحيفة نيويورك تايمز، فإن الدعوى القضائية التي رفعتها الشابة البالغة من العمر 27 عاما، والتي رفعت أسماء مستعارة، ذكرت أن قرار آبل بعدم امتلاك نظام مسح ضحاياها لإعادة تعرضهم للصدمة.
في الواقع ، في عام 2021 ، أعلنت Apple بالفعل عن النظام ، ولديها بالفعل توقيع رقمي من المركز الوطني للأطفال النازحين والمستغربين وغيرها من المجموعات للكشف عن محتوى CSAM المعروف في مكتبة iCloud للمستخدمين.
ولكن لسوء الحظ ، وفقا ل TechCrunch ، يبدو أن الخطة قد تخلت عن الركب بعد أن اقترح مؤيدو الأمن والخصوصية أن النظام يمكن أن يخلق ثغرات للإشراف الحكومي.
وقالت المرأة في دعواها القضائية إن أحد أقاربها أساء معاملتها عندما كانت طفلة وشارك صورا لنفسها عبر الإنترنت. كما ادعى أنه يتلقى تقريبا كل يوم إشعارات من سلطات إنفاذ القانون حول شخص متهم بالحصول على هذه الصور.
وقال محامي جيمس مارش، المتورط في الدعوى القضائية، إن هناك مجموعة محتملة تضم 2,680 ضحية يحق لهم الحصول على تعويض في القضية.
كما أدلى متحدث باسم آبل بتصريحاته بشأن الدعوى القضائية لصحيفة نيويورك تايمز، بأنها "تبتكر بسرعة وبشكل نشط لمكافحة هذه الجريمة دون المساس بأمن وخصوصية جميع مستخدمينا".
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)