保持警惕,请求 ChatGPT 和其他AI 帮助创建密码 原来是危险的

雅加达 - 如果您经常对创建强密码感到困惑,请人工智能(AI)聊天机器人创建密码似乎不是正确的事情。

卡巴斯基的最新调查结果显示,大型语言(LLM)模型生成的大多数密码仍然容易受到网络攻击。

卡巴斯基数据科学团队负责人亚历克塞·安东诺夫(Alexey Antonov)通过使用几个更领先和值得信赖的LLM创建1,000个密码来测试这一点,包括ChatGPT(来自OpenAI),Llama(来自Meta),DeepSeek(来自中国)。

“所有模型都意识到,好的密码由至少12个字符组成,包括大字母和小字母,数字和符号。他们在创建密码时报告了这一点,“安东诺夫说。

根据这项试验,安东诺夫发现DeepSeek和Llama有时会产生由字典单词组成的密码,其中有相同的字母,符号和数字的组合,例如:(DeepSeek)S@d0w12,M@n@go3,B@n@n@n@7,K5yB0a8dS8,S1mP1eL1on(Lllama)。

另一方面,ChatGPT没有遇到任何这些问题,并产生了一个看似随机的密码。例如: qLUx@^9Wp#YZ,LU#@^9WpYqxZ或YLU@x#Wp9q^Z。

根据这些发现,来自DeepSeek的88%的密码和Llama的87%的密码不足以抵御先进黑客的暴力攻击。虽然ChatGPT的结果更好,但仍记录了33%的密码未能通过卡巴斯基安全测试。

“问题在于LLM没有创建真正的模拟。相反,它们模仿现有数据的模式,使结果能够被理解该模型工作方式的攻击者预测,“安东诺夫说。

安东诺夫 代替使用AI,建议使用特殊的密码管理器,该管理器使用安全的加密随机生成器,并将凭据存储在一个主要密码保护的数字保险箱中。

一些密码管理器还可以在设备之间提供自动充电和同步,简化流程,包括违规监控,通知用户他们的凭据是否出现在数据泄漏中。