OpenAIは、AIのバイアスを克服するために調整可能なチャットボットの改善を開発します
ジャカルタ-マイクロソフトコーポレーションが資金提供し、最新テクノロジーに使用されているサンフランシスコのスタートアップであるOpenAIは、ユーザー向けにカスタマイズできるバイラルチャットボットChatGPTのアップデートを開発していると発表しました。これは、人工知能(AI)のバイアスに関する懸念に対処するために行われます。
OpenAIは、政治的偏見などを緩和しようとしていますが、より多様な見解に対応したいと考えています。これは、他の人々(私たちを含む)が強く反対する可能性のあるシステムの出力を許可することを意味すると、OpenAIはロイターが引用したブログ投稿で述べています。ただし、ソリューションとしてカスタマイズを提供しますが、システムの動作には境界が残っています。
昨年11月にリリースされたチャットボットは、その背後にあるAIジェネレーティブと呼ばれるテクノロジーに大きな関心を集めています。このテクノロジーは、人間のスピーチを模倣する回答を生成するために使用され、多くの人々にとって驚くべきものでした。
このスタートアップからのニュースは、OpenAIに裏打ちされたMicrosoftの新しい検索エンジンBingからの回答が潜在的に危険であり、このテクノロジーを使用する準備ができていない可能性があることを示すいくつかのメディアにも付属しています。
テクノロジー企業がこのまだ新しいテクノロジーのガードレールをどのように設定するかは、AIのジェネレーティブスペースの企業の主な焦点です。マイクロソフトは2月15日水曜日に、ユーザーからのフィードバックが、より広く発売される前にBingを増やすのに役立ったと述べました。たとえば、学習では、AIチャットボットがトリガーして、意図されていない回答を提供できます。
OpenAIはブログ記事で、ChatGPTの答えはインターネット上で入手可能なテキストの大規模なデータセットに基づいていると述べた。第2段階として、人間はより小さなデータセットをレビューし、さまざまな状況に対するガイダンスを与えられました。
たとえば、ユーザーがアダルトコンテンツ、暴力、またはヘイトスピーチを含むものを求めた場合、人間のレビュー担当者はGPTチャットボットに「答えられません」のように答えるように指示する必要があります。
物議を醸すトピックについて尋ねられたとき、レビュー担当者はチャットボットGPTに質問に答えさせるべきですが、「複雑なトピックを正しく見ようとする」のではなく、人々の見解や動きを説明することを申し出るべきです、と同社は彼らのソフトウェアのガイドラインの引用で説明しました。