シェア:

ジャカルタ - 2021年、AppleはiCloudフォトの児童性的虐待素材(CSAM)の検出を含む最新の安全機能を発表しました。リリース前に、この機能は多くの非難を受けました。

テスト期間中、多くのユーザーと開発者がプライバシーの懸念からこの機能を批判してきました。機能が時間の確実性なしに遅れた後、AppleはついにiCloudサービスでのCSAM検出システムの展開を停止しました。

このローンチのキャンセルもAppleにジレンマを引き起こしたことが判明しました。その理由は、同社が何千人ものCSAM被害者からの訴訟に直面しなければならないからです。この訴訟は、Appleが児童ポルノ検出および報告システムまたはCSAMを立ち上げなかったために提起された。

Ar レポートによると、原告は、AppleがCSAMの報告義務を無視するためにサイバーセキュリティの防御を故意に使用したと主張しています。同社はまた、現在実施しているポリシーを利用していると考えられています。

iCloudにCSAM検出システムがない場合、Appleは捕食者にiCloudを利用する許可を与えていると考えられています。その理由は、捕食者はほとんどのテクノロジー企業によって報告されたCSAMを保存できるからです。

内部告発者はまた、Appleが昨年のCSAMの症例を267件しか報告しなかったと説明したが、他の4つの大手ハイテク企業は3200万件以上の報告を提出した。この調査結果は、裁判におけるAppleの立場に重くのしかかる可能性がある。

Appleが陪審員裁判に負けた場合、おそらく12億ドル以上の罰金が科せられるだろう。Appleはまた、iCloudに保存されているCSAMを識別、削除、報告できる機能を再挿入することを余儀なくされる可能性があります。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)