起初,Siri的技术源于美国历史上最大的人工智能项目Cognitive Assistant that Learns and Organizes,最初以文字聊天服务为主,后来通过与全球最大的语音识别厂商Nuance合作,使得Siri具备了语音识别能力。2010年4月,苹果公司以约1.5到2.5亿美元的价格收购了Siri,并将Siri软件从App Store下架,整合到了2011年10月发布的iPhone 4S中。在当时人工智能初具雏形,与手机深度绑定的语音助手能够将语音转换为文本后执行对应命令。但当时的语音助手普遍只能完成比较机械化的命令,遇到超纲的问题基本会跳转到网页搜索,被国内外网友调侃“智障”,被吐槽较多的是Siri听不到用户的唤醒指令,另一个就是“已读乱回”带来的尴尬。到了AI大模型时代,吐槽Siri的声音依旧不绝,一方面是Apple Intelligence功能并没有达到足够的成熟度,对日常使用的升级十分有限。另一方面,用户对苹果智能生成的摘要普遍不满,主要是生成的摘要经常出现事实错误。X网友@TheCrypReper直言苹果智能的体验远不如谷歌Gemini,想要退掉iPhone;@LearnOpenCV表示苹果智能是苹果公司有史以来最糟糕的产品更新,他仍然无法区分糟糕的旧版Siri和新版Siri;@thetechwhore言论比较激动,称苹果智能是有史以来最大的噱头和谎言。(图片来自X平台)只能说网友的吐槽并非空穴来风,反映了当下苹果智能存在诸多不成熟的地方。另外,前面提到Apple Intelligence的大模型生成能力,主要是通过整合ChatGPT的AI大模型实现的,短期看的确能够让苹果AI实现从0到1的跨越。但毕竟是个“外接”模型,并不是与iPhone、iPad、Mac等硬件深度绑定的存在,本质上和安装一个AI大模型App没有太多区别。另外考虑到监管以及中文支持等因素,苹果智能想要进入国内服务,寻求本土AI大模型供应商合作是最理想、最快捷的道路,早期传出苹果与百度合作的消息,近几天又曝出苹果正在和腾讯、字节等公司接触,现在和哪家本土大模型合作还未尘埃落定,苹果智能入华有不小的阻力。结合爆料信息看,无论是国外还是国内,第三方大模型对苹果而言可能都是过渡方案。但苹果自研的AI大模型表现能否比第三方更好,是否能够完美融合到苹果的软硬件生态当中,乃至改变使用习惯,小雷要打个问号。
AIOS成大势所趋
苹果这一波不能躺平了
AI大模型这项技术的关键就在于模型,模型表现做得不好,表现不全面甚至错漏百出,那么也会影响到接入它的各种设备的体验,iPhone就是最好的例子。归根到底,Apple Intelligence是苹果这两年最大的升级点,也是最尴尬的升级点。小雷曾经就苹果国内版AI讨论过,就算能够成功“落户”中国市场,它也不是拯救iPhone创新的关键解药。虽然很现实,但现阶段体验一般且有些“搞心态”的Apple Intelligence,坦白说还不如大额补贴来得诱人。目前来看,苹果AI的下一步计划可能就是将ChatGPT等第三方模型更换为自研AI大模型,理论上来说只是少了Siri“外包任务”的步骤,帮助苹果更好地将生成式服务整合进系统当中,做更深的软硬件联动。老实说,小雷不认为这次大幅改进能够让Siri脱胎换骨,毕竟只是更换一个方案,本质上还是在原有的系统架构上进行的AI化改良,并非原生的AIOS,充其量只能完成相对复杂的指令,并且发挥生成式大模型的基本特性而已,眼下这个饼并不好吃,但苹果又不得不为了维持竞争力推出AI功能。这一点国产AI手机就走在前面,围绕系统底层重塑AI系统,使其能够进行大规模并行计算等更复杂的动作,比如赵明在荣耀Magic7系列发布会上,通过YOYO自动化操作,一口气点了2000杯咖啡,用户只要给出指令,AI系统就会自动完成付款确认前的操作部分。这是传统系统架构很难实现的能力,手机“自动驾驶”可以从根本上改变用户的使用习惯,只要下达指令即可。基础的生成式模型接入和软硬件整合体验,苹果目前还没做好准备,部分iOS新版特性也是随安卓系统后推出的,已经从领导角色转变为跟随的角色。诚然,苹果仍然能够靠着iPhone和品牌继续称霸市场,但智能手机未来将会围绕“自动化系统”展开竞争,能否跟上国产大部队,就看在AI领域的道行够不够深了。不管怎么说,先让国内用户用上Apple Intelligence吧。※本文内容来自授权转载,不代表TechWeb观点,转载请联系雷科技(leitech)—【 THE END 】—往期精彩文章回顾: