在OpenAI发布会的第5天,这次的发布会的视频只有11分37秒,唯一的亮点就是——Apple Intelligence。
一、发布会重点回顾
1. 合作宣布:ChatGPT全面入驻苹果生态
OpenAI与苹果正式宣布合作,未来ChatGPT将深度集成到苹果的操作系统中。这意味着,iPhone、iPad和Mac用户将能够更便捷地使用这一AI工具,为工作和生活提供支持。
2. 功能展示:AI赋能苹果设备新体验
在发布会上,苹果与OpenAI展示了ChatGPT与Siri协作的强大功能,包括:
写作工具增强:轻松生成创意文案、优化写作内容; 相机控制:通过ChatGPT的视觉智能技术,解锁iPhone 16的摄像头深度分析功能; 语音操作:用户通过Siri即可完成文档分析、信息查询和活动策划。
发布会中特别展示了一场趣味“圣诞毛衣大赛”,借此直观地展现了ChatGPT生成创意内容和图像的能力,为设备增添了更多娱乐性。
3. 突破性技术:视觉智能赋能日常生活
ChatGPT的视觉智能功能被首次引入苹果设备,弥补了其AI系统的短板。用户不仅可以通过相机识别物体、获取深度信息,还能实时生成场景解释。这一技术大大拓展了iPhone的实际应用场景,尤其适用于内容创作者和日常用户。
4. 用户隐私:AI服务下的自主权
用户在调用ChatGPT时,无需登录即可享受核心功能。如果用户选择创建账户,则可以体验更多个性化服务。此外,用户对数据的使用和分享具有完全控制权,进一步强化了隐私保护。
二、ChatGPT的实际应用场景
在现场演示中,OpenAI展示了ChatGPT在日常生活中的多个应用场景,让AI不再遥远。以下是几个典型场景:
活动策划:通过Siri调用ChatGPT,快速获得派对主题、菜单设计和流程安排的建议。 个性化推荐:根据用户喜好即时生成音乐歌单或电影清单。 文档分析:只需上传文件,即可获得秒级核心摘要,极大提升办公效率。 创意内容生成:为短视频创作者或品牌设计者提供图像和灵感素材。
这些功能不仅能大幅提升工作效率,还能让创造性任务变得轻松有趣。
如果你用的是 iPhone 16,你就可以通过相机控制按键迅速唤醒GPT功能。同样,Mac用户更新至最新系统,也可以借助Apple Intelligence技术,通过呼唤Siri来便捷地调用GPT,并对文档进行智能提问。(但只有美版的苹果才可以,国行的你就别想了。我也问了几个买了苹果16的朋友,他们的体验是目前没有感觉特别强的地方,也许还需要时间。)
三、题外话
除此之外,我原来以为这样的发布会可能会有一些技术细节,比如 Apple Intelligence 技术架构,是否采用端侧小模型加上云端的GPT大模型的方式,否则像AI PIN这样直接对接云端大模型的,演示还可以,实际用户体验是比较差的。
据说为了更好地服务中国市场,苹果在大陆准备和百度合作。双方计划将百度的大模型Ernie 4.0整合到国行版iPhone中,并预计在2025年推出名为“苹果智能”的生成式AI服务。不过,有小道消息说这种合作也面临一些挑战,尤其是在用户数据隐私上的分歧。
假如是这样的话,苹果在国内其实可以考虑更靠谱的大模型,比如Kimi或者智谱清言?不过需要考虑清楚商业模式,合作的大模型厂商能分到什么,否则国内2.5亿苹果用户都用上大模型的话,这个成本是相当高的。