11月22日消息,据彭博社报道,苹果希望通过使用类似于Chat-GPT等AI竞争对手的“先进大语言模型”让Siri更具对话性、更智能,但这一举措要到2026年才能准备就绪。
所谓的“LLM”也就是“大型语言模型”的缩写,全称为Large Language Model。它是一种使用深度学习算法训练的语言模型,旨在理解和生成人类语言。
LLM通常包含数百亿甚至数千亿的参数,通过在大量文本数据上训练使得模型能够捕捉语言的复杂性和细微差别。
LLM并没有看上去那么遥不可及,甚至已经被我们所广泛应用,大家大概率早已体验过。无论是在使用搜索引擎进行AI搜索、与虚拟助手进行对话或让它帮助完成工作,还是你可能接受过AI客户服务、使用生成式AI进行内容创作,LLM在很多方面都已经展现出潜力,在本质上就是文本生成、问答系统、机器翻译、文本摘要、情绪感知和语言理解等能力的具象化。
当苹果首次被传出将进军AI领域时,大家对一点是十分明确的,那就是苹果不会发布Chat-GPT这样的聊天机器人。尽管在WWDC上正式带来了Apple Intelligence,但苹果并没有满足现状。
就目前的情况来说,苹果在iOS 18.2中必须依靠OpenAI的ChatGPT来实现更复杂的任务。毫无疑问,苹果希望用户能够更好地与个人助理交谈,让Siri的响应更像人类。因此以苹果的调性,这必然不会是长久之策,苹果会将一切都掌控在自己手里。
此前科技网站AppleInsider曾报道过苹果进行AI测试的工具,分别是1UP和Smart Replies Tester。其中1UP应用程序用于测试与文本相关的生成式AI功能。值得一提的是,熟悉该应用程序的人士告诉该媒体称,它直接引用了传闻已久的苹果内部LLM或大型语言模型 ( Ajax) 。
可以预见的是,新的Siri可以处理与用户来回的对话,LLM将推动Siri向聊天机器人乃至“贾维斯”的方向(未来的期待)转变。
自从苹果的Apple Intelligence在iOS 18.1中首次亮相以来,苹果还没有将任何真正的Apple Intelligence功能与Siri结合起来。
对于用户来说,Siri并没有太大的改变,就AI功能来说,它没有办法独立使用,仍然是谷歌搜索或ChatGPT等其他工具的连接渠道,控制智能家居、设置定时器或拨打电话的方式也没什么改变。而对于国区用户来说,想要体验到Apple Intelligence依然需要等待。
好消息是,iOS 18已经为打造更具互动性和主动性的Siri奠定了基础。苹果此前已经向开发者开放了“应用意图系统”测试,根据苹果发布的开发者文档,开发者可以将屏幕上的内容提供给Siri和Apple Intelligence来测试应用意图系统,也就是说用户将能够将屏幕上的任何活动发送给AI进行解析。
这一系统将让Siri能够获取用户的部分应用程序功能和设备上的用户数据,从而根据这些内容分析、感知用户所处的场景、需求,实现情境感知并执行用户的指令。
正如我们前面提到的,苹果已经开始研发基于LLM的Siri,并可能于2026年初在iOS 19中首次亮相。按照惯例,苹果应该会在2025年6月的WWDC25期间发布全新的iOS 19,如果传言属实,也就是说Siri LLM实际上要到在iOS 19正式实装(2025年9月iPhone 17系列发布)之后才能上线。
电影中的贾维斯能够与人类进行极其自然、流畅且富有深度的对话。它不仅可以理解各种复杂的语言表达,还能根据上下文和语气准确地回应;同时,作为钢铁侠的得力助手,贾维斯具备极强的多任务处理和协调能力;更重要的一点是,贾维斯具备强大的学习能力,能够不断优化和提升自己的性能……
现阶段,不必说苹果Siri,即便是当下全球最先进的AI模型也无法实现这样的操作,要真正实现贾维斯那样的终极智能助手,我们仍然面临着诸多技术和社会层面的挑战。
但随着技术的不断进步和人类对AI大模型的深入研究,未来的智能助手有机会突破现有的局限,逐渐接近甚至超越 “贾维斯” 所代表的智能水平。
或许在不久的将来,包括Siri在内的各家大模型、AI助手能够成为手机中的贾维斯,为我们的日常带来更多便利,甚至在某种程度上带来人类生活方式的深刻变革。