雅加达 - 最近的谣言提到,苹果正在开发基于大语言模型(LLM)的Siri,以使其的虚拟助理不止对话。根据彭博社的一份报告,该功能预计将于2026年初在iOS 19上首次亮相。
此举表明,苹果在人工智能(AI)方面的方向发生了变化。此前,公司经常排除ChatGPT等聊天机器人的想法。然而,AppleInsider报道称,苹果对AI工具的内部试验表明,Siri将进一步与Apple的先进AI功能集成。
新Siri旨在支持更复杂的双向对话,辅助升级的Siri键入体验。借助基于LLM的系统,Siri将能够更好地理解背景并提供更互动的响应。
苹果人工智能的发展和新Siri的挑战
自iOS 18.1上AI功能首次亮相以来,Siri经历了微不足道的重大变化。Siri目前更像是一种连接到Google搜索或ChatGPT等工具,而不是一种完全独立的工具。控制智能家用设备、设置提醒或生成通话的基本结构。
但是,通过LLM 方法,Siri 将能够提供更高水平的背景意识,利用设备上的用户数据和应用程序功能。例如,Siri可以根据个人时间表或当前位置提供建议,例如帮助从机场接送家庭成员。
然而,向LLM技术的过渡也面临着挑战,例如人工智能的“恶意化”风险,其中系统提供错误或无关的信息。苹果正试图通过更严格的人工智能方法来减少这些风险,尽管它并没有完全消除这些风险。
WWDC 2025首次亮相
iOS 19 可能会在 6 月的 WWDC 2025 活动中推出。但是,如果这些谣言属实,此基于LLM的Siri预计将于2026年初仅向用户提供。
此举有望使Siri成为Apple Intelligence的新面孔,Apple Intelligence是一款在Apple生态系统中集成的AI型号,可提供更直观、更智能的体验。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)