أنشرها:

جاكرتا - رفضت شركة جوجل استعادة حساب رجل بعد وضع علامة غير صحيحة على صورة طبية التقطها من منشعب ابنه على أنها مواد الاعتداء الجنسي على الأطفال (CSAM). ويقول الخبراء إنه فخ لا مفر منه في محاولة تطبيق الحلول التكنولوجية على المشاكل الاجتماعية.

لطالما حذر الخبراء من القيود المفروضة على أنظمة الكشف التلقائي عن صور الاعتداء الجنسي على الأطفال ، خاصة وأن الشركات تواجه ضغوطا تنظيمية وعامة للمساعدة في معالجة وجود مواد الاعتداء الجنسي.

"هذه الشركات لديها إمكانية الوصول إلى كمية هائلة من البيانات حول حياة الناس. وما زالوا لا يملكون سياقا حول حياة الناس الحقيقية" ، حسبما نقلت صحيفة الجارديان عن دانيال كان جيلمور ، كبير تقنيي الموظفين في اتحاد الحريات المدنية الأمريكي.  "هناك العديد من الأشياء التي لا يمكن فيها قراءة حقائق حياتك من قبل عمالقة المعلومات هؤلاء."

وأضاف أن استخدام هذه الأنظمة من قبل شركات التكنولوجيا التي "تعمل كوكلاء" لإنفاذ القانون يعرض الناس لخطر "جرفهم" من قبل "سلطة الدولة".

والتقط الرجل، الذي عرفته صحيفة نيويورك تايمز باسم مارك فقط، صورة لمنشعب ابنه لإرسالها إلى الطبيب بعد أن أدرك أن الجزء به التهاب.

استخدم الطبيب الصورة لتشخيص ابن مارك ووصف المضادات الحيوية. عندما يتم تحميل الصور تلقائيا إلى السحابة، تحدد أنظمة Google أنها CSAM. وبعد يومين، تم تعطيل حساب مارك على Gmail وحسابات Google الأخرى، بما في ذلك Google Fi، التي تقدم خدمة هاتفه، بسبب "المحتوى الضار" وشكلت "انتهاكا صارخا لسياسة الشركة وربما غير قانوني".

وعلم لاحقا أن غوغل وضعت علامة على مقطع فيديو آخر كان بحوزته على هاتفه، وحتى إدارة شرطة سان فرانسيسكو فتحت تحقيقا معه.

وتمت تبرئة مارك في نهاية المطاف من أي مخالفات جنائية، لكن جوجل قالت إنها ستلتزم بقرارها بإلغاء تنشيط حسابه.

"نحن نتبع القانون الأمريكي في تحديد ما يعنيه CSAM ونستخدم مزيجا من تقنية مطابقة التجزئة والذكاء الاصطناعي لتحديد وإزالته من منصتنا" ، حسبما نقلت صحيفة الجارديان عن كريستا مولدون ، المتحدثة باسم Google.

وأضاف مولدون أن موظفي Google الذين يراجعون CSAM قد تم تدريبهم من قبل خبراء طبيين للبحث عن الطفح الجلدي أو المشكلات الأخرى. ومع ذلك ، فهم أنفسهم ليسوا خبراء طبيين ولا يتم استشارة الخبراء الطبيين عند مراجعة كل حالة.

وفقا لجيلمور ، فهي واحدة فقط من الطرق التي يمكن أن يسبب بها هذا النظام ضررا . للتغلب ، على سبيل المثال ، على أي قيود قد تكون لدى الخوارزميات في التمييز بين صور التحرش الجنسي الضارة والصور الطبية ، غالبا ما تشرك الشركات البشر.  

ومع ذلك ، فإن الأشخاص أنفسهم محدودون بطبيعتهم في خبرتهم ، والحصول على السياق الصحيح لكل حالة يتطلب مزيدا من الوصول إلى بيانات المستخدم. وقال جيلمور إنها عملية أكثر تخريبا بكثير يمكن أن تظل طريقة غير فعالة للكشف عن CSAM.

وقال: "هذا النظام يمكن أن يسبب مشاكل حقيقية للناس". "وليس فقط لأنني لا أعتقد أن هذا النظام يمكن أن يلتقط كل حالة إساءة معاملة للأطفال ، ولكن لديهم عواقب وخيمة للغاية من حيث الإيجابيات الكاذبة للناس. يمكن قلب حياة  الناس تماما من قبل الآلات والبشر في دائرة لمجرد أنهم يتخذون قرارات سيئة  ليس لديهم سبب لمحاولة إصلاحها".

يجادل جيلمور بأن التكنولوجيا ليست هي الحل لهذه المشكلة. في الواقع ، يمكن أن يخلق العديد من المشاكل الجديدة. ويشمل ذلك إنشاء نظام مراقبة قوي يمكن أن يضر بشكل غير متناسب بأولئك الموجودين على الأطراف.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)