OpenAI推出ChatGPT API,这是面向应用程序开发人员的AI聊天机器人的经济版本

雅加达 - OpenAI为ChatGPT推出了应用程序编程接口(API),使第三方或任何企业更容易将ChatGPT技术构建到他们的应用程序,网站,产品和服务中。

该聊天机器人API由GPT-3.5 turbo提供支持,与用于ChatGPT Web产品的模型相同。开发人员可以通过一个简单的端点轻松地与它进行交互,并将其用于 ChatGPT 可以在其网站或应用程序中执行的任何任务。

此模型在连接到用户终结点的 Microsoft Azure 计算基础结构上运行。这可以使其独立于 ChatGPT 网站上的服务器负载运行,为企业提供 AI 处理的专用路径。

但是,关于ChatGPT API最重要的事情是它的成本。人工智能驱动的聊天机器人通常需要数据中心才能运行,迫使提供商在硬件和电力上花费大量资金来为数百万用户提供服务。

但是通过软件优化,OpenAI已经成功地将运行ChatGPT的成本降低了90%。

具体来说,OpenAI计划向API用户收取ChatGPT生成的每1000个代币或750个单词0.002美元(3万印尼盾)。

它的成本比该公司以前的Daviinci GPT-3.5大语言模型的API访问成本低10倍,该模型还可以支持聊天机器人服务。

OpenAI 表示,对于预计每天请求超过 4.5 亿个代币的开发人员来说,此版本的 API 可能是最经济的,并且可以通过与公司直接联系获得批准。

此外,除非组织选择加入,否则通过 API 处理的数据不会用于模型训练或对其服务的其他改进。

OpenAI还暂停了一项发布前审查政策,该政策要求开发人员标记他们在这些模型上使用的内容,然后才能将其集成到他们的应用程序中。

“提交给 OpenAI API 的数据不用于培训,我们有新的 30 天保留政策,并且根据具体情况对更少的保留政策开放,”OpenAI 首席执行官 Sam Altman 在推特上说,引用自 ITPro,3 月 3 日星期五。

“我们还删除了发布前审查,并使我们的服务条款和使用政策对开发人员更加友好,”他补充说。

最新型号 gpt-3.5-turbo-0301 将支持至 6 月,预计 gpt-3.5-turbo 的新稳定版本将于 4 月发布。开发人员将根据自己的需要选择采用稳定模型或自定义模型。