谷歌的AI研究人员开发了一种创新方法来提高语言模型性能

雅加达 - 来自Google Research和Google DeepMind的人工智能(AI)研究人员开发了一种方法,可以通过其他语言模型加强大语言模型(LLM)。

它通过允许开发人员为现有模式提供新功能来解决LLM仍然存在的最大问题之一,而无需从头开始或涉及昂贵的培训/晋升课程。

根据Google Research团队的说法,使用其他语言模型加强LLM不仅可以提高现有任务的性能,还可以实现模型本身无法完成的新任务。

在旧的聊天机器人上教授新技巧 该研究是使用谷歌的PaLM2-S LLM进行的,该模型被称为GPT-4,人工智能是OpenAI ChatGPT的基础。

PaLM2-S在团队实验中被自己测试,然后用较小、更具体的语言模型加强后再测试。所执行的任务包括翻译,其中加固版本与基线相比增加了13%,以及编程。

当在编程任务中测试时,该混合动力车型显示出显着改善,如论文所述:

“同样,当PaLM2-S使用特定于编程的模型加固时,我们看到与代号任务和代码解释的基本模型相比,它相对增加了40% - 与完全先进的模型相比。

具有巨大影响的潜力 直接,显示的性能改善可能会对人工智能领域产生直接影响。例如,翻译任务的性能改善是将低支持的语言翻译成英语时最大的。这仍然是一个在机器学习中尚未解决的问题,谷歌在这里的研究有可能做出重大贡献。

然而,更广泛地说,这条研究线可能会解决在人工智能领域威胁许多技术首席执行官的法律问题:一个可能破坏ChatGPT等聊天机器人的基础的法律问题。

今天,一些最受欢迎的大型语言模型的创建者已成为被告,在许多依据这些AI系统使用受版权保护的数据进行培训的指控的诉讼中。

立法者和法院必须回答的问题是,合法以利润为导向的公司是否可以使用这些数据来练习其语言模型。如果法院裁定开发者不能使用这些数据,并且必须删除具有版权材料的培训模型,则继续提供受影响的服务可能在技术上不可能或经济上不可能。

基本上,由于参与培训大语言模型的高昂成本及其对大数据的依赖,如今构建的ChatGPT等产品可能不适合美国人工智能的更受监管的格局。

但是,如果谷歌的新LLM升级计划通过进一步的发展取得成功,那么从头开始LLM或推进现有LLM的许多要求和成本可能会被降低。