جاكرتا -- أبل تلقت للتو رسالة مفتوحة تدين الشركة لإلغاء مسح الصور من ماك ، باد وفون المستخدمين كدليل على الاعتداء على الأطفال.
وقد وقع الرسالة دعاة الخصوصية وخبراء الأمن وشركات التكنولوجيا والأخصائيون القانونيون. في الرسالة ، يذكرون خطوة أبل الحالية التي تهدد بتقويض العمل المستمر منذ عقود أن التكنولوجيين والأكاديميين ودعاة السياسة تجاه تدابير الحفاظ على الخصوصية القوية تصبح القاعدة في معظم أجهزة الإلكترونيات الاستهلاكية وحالات الاستخدام.
وجاء في الرسالة التي نقلتها وكالة "بيتا نيوز" يوم الاثنين، 9 آب/أغسطس، "نطلب من آبل إعادة النظر في طرح تقنيتها، حتى لا تتراجع عن هذا العمل الهام".
وقدم الموقعون طلبين أوقفهما على الفور تطبيق شركة آبل المقترح لتكنولوجيا رصد المحتوى. يجب على Apple إصدار بيان يؤكد من جديد التزامها بالتشفير من طرف إلى طرف وخصوصية المستخدم.
خطة أبل لحماية الطفل هو شيء جيد، ولكن أيضا انها تعرضت لانتقادات شديدة. مع إصدار macOS Monterey و iOS 15 و iPad OS 15 ، نفذت الشركة اكتشاف CSAM (مواد الاعتداء الجنسي على الأطفال) الذي يتحقق من تجزئات الصور لمعرفة ما إذا كان قد تم إساءة استخدام أي صور.
وقد تم تشبيه هذه التكنولوجيا لخلق الباب الخلفي لملفات المستخدمين وخبراء الخصوصية مخيفة. في تحميل إلى قسم سلامة الطفل من موقعها على الانترنت، وقالت أبل انها تريد المساعدة في حماية الأطفال من الحيوانات المفترسة باستخدام أدوات الاتصال لتجنيد واستغلالها، والحد من انتشار CSAM.
مع وضع ذلك في الاعتبار ، تخطط الشركة لمسح الصور المرسلة عبر الرسائل أو التي تم تحميلها إلى iCloud لصور CSAM المعروفة. المعروفة, أبل عرض ميزات جديدة لسلامة الطفل في ثلاثة مجالات, وضعت بالتعاون مع خبراء سلامة الطفل.
أولا، ستسمح أداة الاتصال الجديدة للآباء بلعب دور أكثر استنارة في مساعدة أطفالهم على التنقل في الاتصالات عبر الإنترنت. سيستخدم تطبيق الرسائل التعلم الآلي على جهازك للتحذير من المحتوى الحساس، مع الحفاظ على الاتصالات الشخصية غير قابلة للقراءة من قبل Apple.
بعد ذلك، سيستخدم iOS و iPadOS تطبيقات تشفير جديدة للمساعدة في الحد من انتشار CSAM عبر الإنترنت، مع التصميم لخصوصية المستخدم. يساعد الكشف عن CSAM Apple على تزويد أجهزة إنفاذ القانون بمعلومات قيمة حول مجموعة CSAM في صور iCloud.
وأخيرا، توفر تحديثات ميزة siri و Search للآباء والأطفال معلومات ومساعدات أوسع إذا واجهوا حالات غير آمنة. كما ستتدخل ميزات Siri و Search عندما يحاول المستخدمون البحث عن الموضوعات المتعلقة ب CSAM.
هناك بعض الخطوات المزعجة أبل هنا ، من بينها سوء الكشف ، كما تجزئات الصورة ليست فريدة من نوعها ، وهذا يعني أن الصور التي يساء استخدامها يمكن أن يكون لها نفس التجزئة شيء بريء تماما.
ويقول المدافعون عن الخصوصية في مؤسسة الحدود الإلكترونية (EFF) إن هذا انتهاك كبير للخصوصية. خطة أبل لمسح الصور التي تم تحميلها على صور [ايكلوود] مماثلة لPhotoDNA مايكروسوفت.
الفرق هو أن أبل المسح سيحدث على الجهاز. سيتم توزيع قاعدة البيانات (غير مدققة) من الصور CSAM معالجتها في نظام التشغيل، يتم تغيير الصور المعالجة بحيث لا يمكن للمستخدم رؤية ما هي الصورة.
وهذا يعني أنه عند تشغيل الميزة، سيتم تحميل إصدار قاعدة بيانات NCMEC CSAM إلى كل iPhone. بمجرد اكتشاف عدد من الصور ، سيتم إرسالها إلى مراجع بشري في Apple ، الذي يقرر لاحقا أنها في الواقع جزء من قاعدة بيانات CSAM.
إذا تم تأكيدها من قبل مراجع بشري، سيتم إرسال الصور إلى NCMEC، وسيتم تعطيل حساب المستخدم. مرة أخرى ، خلاصة القول هنا هي أنه مهما كانت جوانب الخصوصية والأمان في التفاصيل التقنية ، سيتم مسح جميع الصور التي تم تحميلها على iCloud.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)