أبل تلغي إطلاق ميزة الكشف عن مواد الاعتداء الجنسي على الأطفال، لماذا؟

جاكرتا - يبدو أنه تم إلغاء أداة للكشف عن مواد الاعتداء الجنسي على الأطفال أو CSAM على صور iPhone و iPad و iCloud من Apple. في السابق ، تلقت هذه الميزة أيضا الكثير من الانتقادات القاسية.

هذا الأسبوع ، قررت Apple عدم المضي قدما في ميزة اكتشاف CSAM التي وضعوا خططا لها مسبقا لصور iCloud.

"يمكن حماية الأطفال دون أن تقوم الشركات بتمشيط البيانات الشخصية ، وسنواصل العمل مع الحكومات والمدافعين عن الأطفال والشركات الأخرى للمساعدة في حماية الشباب ، وحماية حقهم في الخصوصية ، وجعل الإنترنت مكانا أكثر أمانا للأطفال ولنا. كل شيء»، قالت أبل.

أعلنت Apple لأول مرة عن ميزة الكشف عن CSAM في عام 2021 ، بهدف المساعدة في مكافحة استغلال الأطفال وتعزيز السلامة ، وهي قضية يتبناها مجتمع التكنولوجيا بشكل متزايد.

ومع ذلك ، أثارت الخطة على الفور احتجاجات من خبراء الخصوصية والأمن. يجادلون بأن ميزة الكشف عن CSAM يمكن إعادة استخدامها في النهاية للبحث عن أنواع أخرى من المحتوى.

إطلاق CNN International ، الجمعة 9 ديسمبر ، في الإعلان عن إلغاء ميزة الكشف CSAM ، ستعيد الشركة تركيز جهودها لتطوير ميزة أمان الاتصالات ، والتي كانت متاحة لأول مرة في ديسمبر 2021.

ميزة أمان الاتصال هي أداة رقابة أبوية لتحذير الأطفال تحت umut عندما تكون مرفقات الصور الواردة أو المرسلة في iMessage صريحة جنسيا. بعد ذلك ، ستحجبها هذه الميزة.

يأتي إعلان Apple حول إلغاء خططها لميزة المسح الضوئي CSAM في نفس الوقت الذي تطرح فيه الشركة العديد من ميزات الأمان الجديدة.

في التقارير السابقة ، تخطط Apple لتوسيع التشفير من طرف إلى طرف لبيانات iCloud لتشمل النسخ الاحتياطية والصور والملاحظات وسجل الدردشة والخدمات الأخرى ، في خطوة يمكن أن تزيد من حماية بيانات المستخدم.

ستسمح هذه الأداة ، التي يطلق عليها اسم Advanced Data Protection ، للمستخدمين بتخزين بيانات معينة بشكل أكثر أمانا من المتسللين والحكومات والجواسيس ، حتى في حالة خرق بيانات Apple.