雅加达 - 英国官员正在向有关组织发出警告,将人工智能(AI)聊天机器人集成到他们的业务中。他们说,研究进一步表明,这些聊天机器人可能会被诱惑执行恶意任务。
英国国家网络安全中心(NCSC)在原定于周三(Agutsus)发布的一对博客文章中表示,专家们并不完全了解与算法相关的潜在安全问题,这些算法可以产生像人类一样听起来的互动 - 称为大语言模型或LLM。
人工智能驱动的工具现在开始被用作聊天机器人,有人想象这不仅会取代互联网搜索,还会取代客户服务和销售通话的工作。
NCSC表示,这可能带来风险,特别是如果这些模型与组织业务流程中的其他要素相连。学者和研究人员一再发现方法,通过给出淘气的命令或欺骗他们避免自己内部安全来破坏聊天机器人。
例如,如果黑客正确策划了其问题,由人工智能驱动且由银行使用的聊天机器人可能会被挪用以进行未经许可的交易。
「使用LLM建造服务的组织需要小心,例如,如果他们使用仍处于测试版阶段的代码产品或图书馆,”NCSC在其博客文章中表示,指的是实验性软件版本。
「他们可能不允许产品代表客户进行交易,也不应该完全信任他。类似的警惕性应该应用于LLM,“NCSC表示,路透社援引。
世界各地的当局都在努力应对日益使用的LLM,例如OpenAI的ChatGPT,它被企业集成到各种服务中,包括销售和客户服务。人工智能的安全影响也仍处于开发阶段,而美国和加拿大当局表示,他们已经看到黑客采用了这项技术。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)