ジャカルタ - Instagramの親会社であるMeta Platform Inc.は4月11日木曜日、プラットフォームが売春行為やポルノを含むメッセージをぼかす機能をテストして、ティーンエイジャーを保護し、詐欺師がそれらに到達するのを防ぐと発表しました。これは、アプリ上の悪意のあるコンテンツに対する懸念を和らげるために行われました。
テクノロジー企業は、アプリが中毒性があり、若者のメンタルヘルスの問題を悪化させているという主張をめぐって、米国とヨーロッパで圧力が高まっています。
メタは、Instagramのダイレクトメッセージの保護機能は、デバイス上の機械学習を使用して、サービスを介して送信された画像にノウハウが含まれているかどうかを分析すると述べています。
この機能は、18歳未満のユーザーに対して既定で有効になっており、Metaは成人に有効にするように指示します。
「画像はデバイス自体で分析されるため、売春保護はエンドツーエンドの暗号化されたチャットでも機能し、誰かが私たちに報告することを選択しない限り、メタは画像にアクセスできません」とMeta氏は述べています。
メタのメッセンジャーやWhatsAppアプリとは異なり、Instagramのダイレクトメッセージは暗号化されませんが、同社はサービスの暗号化を実装する計画であると述べています。
メタはまた、セクストレーション詐欺スキームに関与している可能性のあるアカウントを特定するのに役立つ技術を開発しており、これらのアカウントと対話した可能性のあるユーザー向けに新しいポップアップメッセージをテストしていると述べた。
1月、ソーシャルメディアの巨人は、FacebookとInstagramにティーンエイジャーからより特定のコンテンツを隠すと発表し、自殺、自傷行為、摂食障害などの機密コンテンツを見つけることをより困難にすると付け加えました。
カリフォルニア州やニューヨーク州を含む米国の33州の司法長官は10月に同社を訴え、メタはプラットフォームの危険性について繰り返し国民を誤解させていると述べた。
欧州では、欧州委員会がメタが違法で有害なコンテンツから子供たちをどのように保護しているかについての情報を求めています。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)