シェア:

ジャカルタ - テクノロジー大手のAppleは、iCloudで児童性的虐待の素材(CSAM)をスキャンするための写真検出システムを実装していないとして訴えられたと伝えられています。

ニューヨーク・タイムズ紙の報道によると、27歳の女性が匿名で提起したこの訴訟は、スキャナーシステムを所有しないというAppleの決定により、被害者はトラウマを取り戻すことを余儀なくされたと指摘している。

実際、2021年にAppleはすでにシステムを発表しており、国立ミスおよび取された子供たちセンターおよびその他のグループから、ユーザーのiCloudライブラリで既知のCSAMコンテンツを検出するためのデジタル署名をすでに持っています。

しかし残念なことに、TechCrunchによると、セキュリティとプライバシーの支持者が、このシステムが政府の監督のための抜け穴を作り出す可能性があると示唆した後、計画は放棄されたようです。

彼女の訴訟で、女性は、彼女が赤ん坊だったときに親戚が彼女を虐待し、彼女の写真をオンラインで共有したと言いました。彼はまた、ほぼ毎日、被告人がそのような画像を所持しているという法執行機関からの通知を受けていると主張した。

訴訟に関与しているジェームズ・マーシュ弁護士は、この事件で補償を受ける権利がある2,680人の被害者からなる潜在的なグループがあると述べた。

Appleの広報担当者もニューヨーク・タイムズ紙に、この訴訟に関するコメントを発表し、「すべてのユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪に対抗するために即時かつ積極的に革新している」と述べた。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)