OpenAIがアプリ開発者向けのAIチャットボットの経済的なバージョンであるChatGPT APIを発表
ジャカルタ-OpenAIは、ChatGPT用のアプリケーションプログラミングインターフェイス(API)を立ち上げ、サードパーティやあらゆる企業がChatGPTテクノロジーをアプリケーション、Webサイト、製品、およびサービスに簡単に組み込むことができるようにしました。
そのチャットボットAPIは、ChatGPTウェブ製品で使用されているのと同じモデルであるGPT-3.5ターボを搭載しています。開発者は、シンプルなエンドポイントを介して簡単に操作でき、Webサイトまたはアプリ内からChatGPTが実行できるあらゆるタスクに使用できます。
このモデルは、ユーザー エンドポイントに接続する Microsoft Azure コンピューティング インフラストラクチャで実行されます。これにより、ChatGPT Webサイトのサーバーの負荷とは無関係に実行でき、AI処理専用のパスを企業に提供できます。
ただし、ChatGPT APIで最も重要なことはそのコストです。AIを利用したチャットボットは通常、データセンターを実行する必要があり、プロバイダーは何百万人ものユーザーにサービスを提供するためにハードウェアと電力に多額の費用を費やす必要があります。
しかし、ソフトウェアの最適化により、OpenAIはChatGPTの実行コストを最大90%削減することに成功しました。
具体的には、OpenAIは、ChatGPTによって生成された1,000トークンまたは750ワードごとにAPIユーザーに0.002米ドル(IDR 30,000)を請求する予定です。
チャットボットサービスもサポートできる以前のDaviinci GPT-3.5大規模言語モデルのAPIアクセスの10分の1のコストです。
OpenAIによると、このバージョンのAPIは、1日あたり4億5000万を超えるトークンのリクエストを期待する開発者にとっておそらく最も経済的であり、会社との直接の連絡を通じて承認できます。
さらに、APIを介して処理されたデータは、組織がオプトインしない限り、モデルのトレーニングやサービスのその他の改善には使用されません。
OpenAIはまた、開発者がアプリケーションに統合する前に、これらのモデルで使用するものにフラグを立てることを要求するリリース前レビューポリシーを一時停止しました。
「OpenAI APIに提出されたデータはトレーニングには使用されず、新しい30日間の保持ポリシーがあり、ケースバイケースでそれ以下になります」とOpenAIのCEOであるSamAltmanは、3月3日金曜日にITProから引用されたようにツイートしました。
「また、リリース前のレビューを削除し、利用規約と使用ポリシーをより開発者に優しいものにしました」と彼は付け加えました。
最新モデルのgpt-3.5-turbo-0301は6月までサポートされ、gpt-3.5-turboの新しい安定版リリースは4月に予定されています。開発者は、必要に応じて安定したモデルまたはカスタムモデルを採用する選択肢が与えられます。