英国情报局警告ChatGPT和其他AI聊天机器人很危险,可能会传播恶意软件!
雅加达 - 在每个人都在争夺创建生成性大语言模型(LLM)或人工智能(AI)的时候,英国情报机构警告ChatGPT和其他竞争聊天机器人的潜在安全威胁。
英国政府通信总部(GCHQ)的国家网络安全中心(NCSC)在官方博客上发表了一篇文章,称它已经调查了生成人工智能机制。
虽然,它说他们的LLM无疑令人印象深刻,但它不是人工通用智能,并且包含一些严重的缺点。
NCSC建议用户不要在软件中包含个人或敏感信息,无论是由OpenAI还是其他人制作的。
根据NCSC的说法,网络犯罪分子可能会泄露隐私和非法使用数据。因为,LLM是在大型数据集(整个互联网)上训练的,但是一旦这些信息被消化,他们就不会继续从用户输入的指令中学习,ChatGPT每天接收数百万条信息。
目前,确实不存在聊天机器人重复用户查询作为对其他人的答案的一部分的风险,所有查询都由其开发人员存储。
但有一天,NCSC认为,开发人员可以使用这些保存的查询来进一步开发LLM模型。
“一个问题可能是敏感的,因为数据包含在查询中,或者因为谁问了这个问题(以及何时)。还要记住使用相同的凭据跨多个查询的信息聚合,“NCSC 说,引自 3 月 16 日星期四的《每日邮报》。
除了被开发人员使用之外,查询还可能被黑客入侵、泄露或意外发布,这更加危险。尽管 Web 浏览器通常存储浏览历史记录并且容易受到类似情况的影响,但用户可以删除以前的搜索。
在更邪恶的用例中,NCSC还指出,基于LLM的聊天机器人将能够帮助黑客或诈骗者以多种语言创建更具说服力的网络钓鱼电子邮件。
此外,该工具还可以帮助攻击者编写比以往任何时候都更复杂的恶意软件。此外,技能较低的攻击者还可以通过LLM创建功能强大的恶意软件。
关于LLM相对于人工通用智能的弱点,NCSC开发人员Holy Grail强调了许多问题,包括机器人犯错误和幻觉错误的事实,指出偏见和容易上当受骗,以及被说服创建有毒内容。
“LLM无疑令人印象深刻,因为它们能够以各种人类和计算机语言制作大量令人信服的内容,”Grail说。
自去年 11 月推出以来,ChatGPT 已被全球数百万人使用,被学童和企业采用,帮助完成家庭作业和创作诗歌。
不久之后,像微软这样的大公司出现了,他们将ChatGPT整合到Bing搜索引擎中。它的Edge网络浏览器将很快包含一个ChatGPT侧边栏。
今年二月,谷歌还推出了自己的LLM聊天机器人Bard。同样,Meta 有一个 LLaMA 聊天室,仅供 AI 社区中的用户使用。现在,该公司正在开发一个公共聊天机器人。