シェア:

ジャカルタ - OpenAIは、長い記事やソーシャルメディア上のコメントなど、選挙に影響を与えることを目的とした偽のコンテンツを生成するためにAIモデルを使用する取り組みが増えていると報告しています。

10月9日水曜日に発表されたレポートで、ChatGPTのクリエイターは、サイバー犯罪者がマルウェアの作成やデバッグ、Webサイトやソーシャルメディアプラットフォーム用の偽のコンテンツの作成などの悪意のある活動のためにAIツールをますます使用していると述べました。

2024年を通じて、OpenAIは、8月に米国選挙関連の記事の作成に使用されたいくつかのChatGPTアカウントを含む、そのような20以上の取り組みを無力化することに成功しました。7月、OpenAIはまた、ルワンダ州の選挙関連のコメントを作成するために使用される多くのアカウントがソーシャルメディアXに投稿されることを禁止しました。

それでも、OpenAIは、大きな注目度または継続的な聴衆を獲得した世界の選挙に影響を与えることを目的とした活動はないことを強調しています。AIツールを使用して選挙関連の虚偽の情報を生成および拡散することに関する懸念は、特に11月5日に行われる米国大統領選挙に先立って高まり続けています。

米国国土安全保障省によると、AIを使用して虚偽または分裂的な情報を広めることによって選挙に影響を与えようとするロシア、イラン、中国からの脅威が高まっています。

66億米ドル(103.3兆ルピア)の資金提供を受けたばかりのOpenAIは、現在、世界で最も価値のある民間企業の1つであり、ChatGPTは2022年11月の立ち上げ以来、毎週2億5000万人のアクティブユーザーを抱えています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)