ジャカルタ - AI21 Labsは最近、大規模な言語モデル(LLM)のクエスティングバスマシンである「文脈上回答」を発表しました。
LLMに接続することにより、この新しい機械を使用すると、ユーザーは独自のデータライブラリをアップロードして、モデルの出力を特定の情報のみに制限できます。
ChatGPTと同様の人工知能(AI)製品の発売は、AI業界のパラダイムを変えましたが、信頼の欠如は採用を多くの企業にとって困難な見通しにしています。
この調査によると、従業員は勤務時間のほぼ半分を情報検索に費やしています。これは、検索機能を実行できるチャットボットにとって素晴らしい機会です。ただし、ほとんどのチャットボットは企業レベルを対象としていません。
AI21は、一般使用のために設計されたチャットボットとエンタープライズレベルの質問サービスとの間のギャップに対処するために、ユーザーに独自のドキュメントデータとライブラリをリダイレクトする機能を提供することにより、概念的な答えを開発しました。
AI21のブログ記事によると、概念答えは、モデルをリトレーニングすることなくAI回答をリダイレクトすることを可能にし、採用における最大の障壁のいくつかに対処します。
「ほとんどの企業は、組織データにおけるコスト、複雑さ、モデルスペシャライゼーションの欠如を理由に[AI]を採用するのが難しく、誤った反応、つまり「幻覚的」、または文脈にそぐわない」とAI21は述べています。
OpenAIのChatGPTやGoogleのBardなど、役に立つLLMの開発に関連する主な課題の1つは、信念の欠如を表現するように教えることです。
通常、ユーザーがチャットボットに質問すると、実際の情報を提供するのに十分な情報がデータセットにない場合でも、チャットボットは応答を発行します。
これらの場合、「私は知らない」などの低い自信を持って答えを出す代わりに、LLMはしばしば事実に基づかずに情報を生成します。
研究者らは、機械が、実際には存在しないものを見る人間など、データセットに存在しないと思われる情報を生成するため、この出力を「幻覚」と呼んでいます。
AI21によると、概念答えは、ユーザーが提供する文書に関連する場合のみ情報を公開するか、まったく公開しない場合にのみ、幻覚の問題に完全に対処できます。
金融や法律など、自動化よりも精度が重要であるセクターでは、プレトレーニング変圧器システム(GPT)の存在がさまざまな結果をもたらしています。
専門家は、GPTシステムを使用する際に、インターネットに接続され、ソースに接続できる場合でも、情報を幻覚化または混乱させる傾向があるため、財務上の警戒を引き続き推奨しています。そして法律分野では、弁護士は現在、ケースでChatGPTによって生成された出力に頼った後、罰金と制裁に直面しています。
AIシステムに関連するデータを含め、システムが事実以外の情報を幻覚化する前に介入することで、AI21は幻覚の問題に対する解決策を示したようです。
これは、特に従来の金融機関がGPTテクノロジーの採用に消極的であり、暗号通貨とブロックチェーンコミュニティがチャットボットを使用する際に複数の成功を収めているフィンテック分野で、大量採用につながる可能性があります。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)