OpenAIは、AIモデルを詐欺に使用する秘密の操作を阻止します

ジャカルタ - 過去3ヶ月間で、OpenAIは、AIモデルを使用してインターネット上の不正行為をサポートしようとする秘密の操作を首尾よく中断したと発表しました。

詐欺師は通常、AIを使用して、さまざまな言語で短いコメントや長い記事を作成し、ソーシャルメディアアカウントの名前やビオスを作成し、オープンソース調査を実施し、単純なコードをデバグし、テキストを翻訳して修正します。

さまざまな作戦によって投稿されたコンテンツは、ロシアのウクライナ侵攻、ガザでの紛争、インドの選挙、ヨーロッパと米国の政治、中国の反体制派や外国政府による中国政府に対する批判など、さまざまな問題に焦点を当てています。

これらの操作は、通常、関与またはオーディエンスのリーチを大幅に増加させることを目的としています。しかし、OpenAIの努力のおかげで、彼らはこの5月を通して、操作が多くのオーディエンスを獲得できなかったのを見ました。

したがって、OpenAIは、虐待を防止し、AIが生成するコンテンツに関する透明性を高めるポリシーを実施するというコミットメントを再確認します。

「私たちは安全性を考慮し、悪意のある使用に積極的に介入することにより、モデル設計を含む安全で責任あるAIの開発に取り組んでいます」と同社は述べています。

OpenAIはまた、責任あるAI開発を作成するために、他の企業とともに詳細な調査を続けています。

「私たちは、生成AIの力を活用して、これらの虐待を大規模に見つけて軽減することに専念しています」と彼は結論付けました。