シェア:

ジャカルタ - 過去3ヶ月間で、OpenAIは、AIモデルを使用してインターネット上の不正行為をサポートしようとする秘密の操作を首尾よく中断したと発表しました。

詐欺師は通常、AIを使用して、さまざまな言語で短いコメントや長い記事を作成し、ソーシャルメディアアカウントの名前やビオスを作成し、オープンソース調査を実施し、単純なコードをデバグし、テキストを翻訳して修正します。

さまざまな作戦によって投稿されたコンテンツは、ロシアのウクライナ侵攻、ガザでの紛争、インドの選挙、ヨーロッパと米国の政治、中国の反体制派や外国政府による中国政府に対する批判など、さまざまな問題に焦点を当てています。

これらの操作は、通常、関与またはオーディエンスのリーチを大幅に増加させることを目的としています。しかし、OpenAIの努力のおかげで、彼らはこの5月を通して、操作が多くのオーディエンスを獲得できなかったのを見ました。

したがって、OpenAIは、虐待を防止し、AIが生成するコンテンツに関する透明性を高めるポリシーを実施するというコミットメントを再確認します。

「私たちは安全性を考慮し、悪意のある使用に積極的に介入することにより、モデル設計を含む安全で責任あるAIの開発に取り組んでいます」と同社は述べています。

OpenAIはまた、責任あるAI開発を作成するために、他の企業とともに詳細な調査を続けています。

「私たちは、生成AIの力を活用して、これらの虐待を大規模に見つけて軽減することに専念しています」と彼は結論付けました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)