OpenAIは、低精度のためにAI検出ソフトウェアを閉じる
ジャカルタ-人工知能の巨人OpenAIは、精度が低いという理由で、AI検出ソフトウェアの使用を密かに停止しました。
OpenAIが開発したAI分類は、1月31日に最初に開始され、教師や教授などのユーザーがAIが生成するテキストと人間が書いたテキストを区別するのを支援することを目的としています。
ただし、このツールの発売を発表した元のブログ投稿によると、AI分類は7月20日以降終了しています:「2023年7月20日、AI分類は精度が低いため利用できなくなりました」。
ツールへのリンクは機能しなくなりましたが、メモはツールが閉じられた簡単な理由しか示していませんでした。しかし、同社は、AIによって生成されたコンテンツを識別するための新しい、より効果的な方法を模索していると説明しています。
「私たちはフィードバックの組み合わせに取り組んでおり、現在、テキスト用のより効果的な証明技術の研究を行っており、ユーザーがオーディオコンテンツとビジュアルコンテンツがAIによって生成されているかどうかを理解できるメカニズムの開発と実装に取り組んでいます」とメモには書かれています。
OpenAIは当初から、この検出ツールはエラーに対して脆弱であり、「完全に信頼性が高い」とは言えないと説明してきました。
同社は、このAI検出ツールの限界には、1,000文字未満のテキストを検証する際の「非常に不正確」が含まれており、AIの結果として人間によって書かれたテキストを「自信を持って」タグ付けできると述べています。このAI分類は、OpenAIの最新製品が脚光を浴びています。
7月18日、スタンフォード大学とUCバークレー大学の研究者は、OpenAIの主力製品であるChatGPTが時間の経過とともに悪化していることを示す研究を発表した。
研究者らは、過去数ヶ月間に、ChatGPT-4がプライムナンバーを正確に識別する能力が97.6%からわずか2.4%に大幅に減少したことを発見しました。さらに、ChatGPT-3.5とChatGPT-4の両方が、新しいコードラインを生成する能力が大幅に低下しました。