シェア:

ジャカルタ - サム・アルトマン率いるOpenAIは5月30日木曜日、インターネット上の「不正行為」に人工知能(AI)モデルを使用しようとする5つの隠された影響力操作または世論操作を停止したと発表しました。

人工知能企業は、脅威アクターが過去3か月間にAIモデルを使用して、短いコメント、さまざまな言語の長い記事、ソーシャルメディアアカウントの偽の名前とバイオデータを作成したことを明らかにしました。

このキャンペーンには、ロシアのウクライナ侵攻、ガザでの紛争、インドの選挙、ヨーロッパと米国の政治などに焦点を当てた、ロシア、中国、イラン、イスラエルからの脅威アクターが関与しています。

これらの不正な作戦は「世論を操作したり、政治的結果に影響を与えたりする試み」であるとOpenAIは声明で述べた。

サンフランシスコに本拠を置く同社からのこの報告書は、人工テキストに似たテキスト、画像、オーディオを迅速かつ容易に生成できるAI遺伝子技術の潜在的な誤用について懸念を提起する最新のものです。

マイクロソフトが支援するOpenAIは、5月28日火曜日に、CEOのSam Altmanを含む取締役会メンバーが率いる安全安全委員会を設立し、次のAIモデルのトレーニングを開始すると発表しました。

同社の声明によると、詐欺的なキャンペーンは、OpenAIのサービスのおかげで、関与や視聴者リーチの増加の恩恵を受けませんでした。

OpenAIは、これらの操作はAIによって生成された資料を使用するだけでなく、手書きのテキストやインターネット全体からコピーされたミームも含んでいると述べています。

これとは別に、メタ・プラットフォームスは5月29日水曜日の四半期セキュリティレポートで、世界的な報道機関や米国の議員からの投稿で公開されたガザでの戦争に対するイスラエルの対応を称賛するコメントを含め、FacebookとInstagramのプラットフォームで不正に使用されている「AIによって生成された可能性が高い」コンテンツを発見したと述べた。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)