ジャカルタ - AppleはiMessageアプリケーションで子供向けの新しいセーフティを開始します。この新機能を使用すると、未成年のユーザーはヌードの写真やビデオを受け取った場合にレポートを作成できます。
ガーディアン紙のレポートによると、この新機能はAppleのコミュニケーションセキュリティの一部です。同社は、メッセージまたはAirDrop経由で受信されたポルノ写真またはビデオを検出するために、デバイスのスキャンシステムを使用しています。
自動的に、ヌードコンテキストの写真やビデオがブロックされます。さらに、Appleは、成人にメッセージを送信したり、助けを求めたり、連絡先をブロックしたりするなど、いくつかのオプションを備えたポップアップも表示します。
現在、略奪者の子供の安全機能は、iOS 18.2をベータ版でオーストラリアでテストされています。ユーザーが受け取ったポルノ写真やビデオに関するレポートを作成した場合、Appleはレポート作成者と報告された人から連絡先情報を取得します。
Appleがレポートを受け取ったら、同社はレポートを分析し、行動を起こします。同社は、iMessageのポルノメッセージング送信者へのアクセスを制限したり、メッセージング送信者を法執行機関に報告したりすることができます。
伝えられるところによると、この機能はグローバルに拡張されますが、いつ拡張されるかは定かではありません。この機能は、iOS 18.2が安定版で発売されると、来年全国でリリースされる可能性があります。
これは、Appleが子供の安全のためにリリースした最初の機能ではありません。2021年、AppleはiCloudフォトライブラリをスキャンして児童の性的虐待素材を探すことができる機能を簡単に立ち上げました。危険な写真がある場合、両親はAppleから報告を受けます。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)