アップルは、子供のための追加のセキュリティ機能を備えたiOS 15.2のベータ版をリリースします

アップルはiOS 15.2の2番目のベータ版をリリースし、着信画像と発信画像をスキャンすることでメッセージアプリ内の明示的な画像をあいまいにする子供の安全機能を導入しました。

アップルは今年初め、アップルのデバイスやサービスを使用して幼児を保護することを目標にした「子どものための保護の拡大」目標の一環として、この機能を発表した。

同社は当初、潜在的に危険な写真がぼやけ、画像を開くことの危険性について画面上の警告が表示されると発表しました。また、子供たちが安全に滞在し、悪い俳優による捕食行動を避けるのに役立つリソースも伴います。ユーザーがそのような問題のあるコンテンツを投稿しようとすると、事前に警告を表示した後に親に警告する規定があります。

iOS 15.2 Beta 2の発売に伴い、Appleはプライバシーとセキュリティ上の懸念から最初の遅延の後、最終的にこの機能をリリースしました。Apple は、機械学習を使用してデバイス上で画像スキャンを行い、送受信された画像が悪意のあるものかどうかを判断すると主張しています。

さらに重要なことに、Appleは、実装した暗号化層のおかげで、この機能がメッセージにアクセスできないようにしました。しかし、プライバシーとサイバーセキュリティの支持者は以前、スキャン技術はAppleが宣伝する最初のプライバシー原則に反し、将来的により破壊的な行動の前例を作ると警告している。

もう 1 つの問題は、この機能がどのように設計されたかです。メッセージで問題のある画像を受信すると、ぼやけて開くと親に警告します。ユーザーが重要な画像を送信しようとすると、類似の親のアラートがトリガーされます。

しかし、子どもの安全の専門家や他の人は、すべての保護者がすべての場合に子供の最善の利益に常に注意を払うとは限らず、これらの警告は実際に子供を虐待的な両親や保護者にさらす際に提供したい利益よりも多くの損害を与える可能性があると主張し、これらの警告について警告します。

CNETは、Appleがメッセージの子供のセキュリティ機能に対する警告システムの仕組みを変更したと報告しています。Appleは、機密性の高い画像を受信した後、親にセキュリティアラートを受け取らせるかどうかを子供たちに決定させます。

上記のプロンプトは、ユーザーが問題のある画像を表示するのではなく削除することを選択した場合とは異なります。子供の安全機能はベータ版のアップデートの一環として到着しており、Appleはまだこの機能をテストしていることを示しています。

また、UI は異なって見える場合があり、広くリリースされた場合、一部の側面も変更される可能性があります。覚えておくために、アップルは専門家からの抗議に続いてiCloud写真スキャンの計画を延期しなければならなくて、Appleのデバイスとサービスのエコシステムに対する監視行動の「扉」をどのように開いたのか。