カスペルスキーは、子供にAIチャットボットを使用することのリスクを強調しています
ジャカルタ - 現在、人工知能(AI)技術が人間の生活の不可欠な部分となり、かつて革新的と考えられていた多くのツールをゆっくりと置き換えていることは否定できません。
ChatGPTの存在はまた、世界中の人々がそのさまざまな可能性を歓迎することに熱心になります。しかし、テクノロジーの陶酔感には考慮されていない重要な部分、つまり子供たちが1つあります。
カスペルスキーのWebコンテンツアナリストであるNoura Afaneh氏によると、あらゆる年齢の子供たちは、同意を必要とせずにAIツールに簡単にアクセスできます。
「さまざまなツールには多くの大きな利点がありますが、子供に対するAIチャットボットのリスクを逃した場合。データプライバシーの喪失、サイバー脅威、不適切なコンテンツを含む大きなリスクに直面する可能性があります」と、Afanehは10月16日月曜日に受け取った声明で述べました。
Afaneh氏は、最も人気のあるAIチャットボットの1つであるChatGPTは適切な年齢確認を持っていないため、子供のデータのプライバシーにリスクをもたらすと説明しました。ChatGPTはまた、しばしば説得力のある方法で不正確で誤った情報を提供します。
さらに、Snapchatの「MyAI」チャットボットは、13歳のユーザーが親の許可を必要とせずにそれを使用できるようにします。アファネは、これらのAI「友人」のリスクは、子供たちがしばしば本当の友達であると本当に信じ、彼らのアドバイスに基づいて行動することであると説明しました。
ティーンエイジャーは、助けることができる両親よりも、チャットボットと自分の人生に関する個人情報や個人情報を共有することをより快適に感じるかもしれないので、これは特に危険です。
「より不適切な側面では、「エロティックな」体験を提供するために特別に設計されたAIチャットボットがたくさんあります。たとえば、MyAnimaは私がテストしたチャットの1つであり、年齢確認を必要とせずに性的答えを提供する努力はほとんど必要ありませんでした」と彼は言いました。
さらに、露骨な性的役割ゲーム用に特別に設計されたアダルトAIツールであるBot Friendsもあり、その使用を開始するために必要なのは電子メールだけです。
「これは、子どもたちがインターネットをどのように使用しているか、そしてデータプライバシーや情報の誤用に危険にさらされているかどうかを認識することがいかに重要であるかを常に思い出させます」とAfaneh氏は結論付けました。