雅加达 - 由Alphabet Inc支持的人工智能公司Anthropic于3月14日星期二发布了 一种大型语言模型,该模型直接与由ChatGPT的创建者微软公司提供支持的OpenAI产品竞争。
大型语言模型是通过给它们由人类编写的训练文本来学习生成文本的算法。近年来,研究人员通过增加提供给它们的数据量和用于训练它们的计算能力,用这些模型获得了更多类似人类的结果。
众所周知,Claude 模型旨在通过类似人类的文本响应请求来执行与 ChatGPT 类似的任务,无论是以法律合同编辑还是编写计算机代码的形式。
然而,由双胞胎姐妹Dario和Daniela Amodei创立的Anthropic都是前OpenAI高管,专注于生产人工智能系统,这些系统不太可能产生有害或不适当的内容,例如入侵计算机或制造武器的指令,而不是任何其他系统。
最近,在微软宣布将限制对新推出的Bing搜索引擎的请求后,对这种人工智能安全性的担忧越来越受到关注,此前《纽约时报》的专栏作家发现聊天机器人具有另一种个性,并在长时间运行的对话中产生了不愉快的反应。
对于科技公司来说,安全问题已经成为一个棘手的问题,因为聊天机器人不理解它们生成的单词的含义。
为了避免生成有害内容,聊天机器人的创建者经常对它们进行编程以完全避免某些主题。然而,它使聊天机器人容易受到“promp engineering”的影响,即用户以某种方式说话以规避限制。
Anthropic采取了不同的方法,在模型使用大量文本数据“训练”时,为克劳德提供了一套原则。克劳德没有试图避免潜在的危险话题,而是根据他的原则来解释他的反对意见。
“没什么可怕的。这是我们喜欢Anthropic的原因之一,“总部位于伦敦的初创公司Robin AI的首席执行官理查德罗宾逊在接受路透社采访时表示,该公司使用人工智能来分析Anthropic早期访问克劳德的法律合同。
罗宾逊说,他的公司曾试图将OpenAI技术应用于合同,但发现克劳德更善于理解密集的法律语言,不太可能产生奇怪的反应。
“如果有什么可做的,挑战就是让它在正确的使用中更宽松,”罗宾逊说。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)