Meta AI 眼镜怎么就成功了?Google Glass 问题又在哪儿?智能眼镜十年复盘(上篇)

科技   2024-06-26 22:18   广东  
以前我们戴眼镜是为了让你看清这个世界,那后面我们戴眼镜其实是为了让你看懂这个世界。

自 Google 第一代眼镜上市至今已经十年了,在过去的几年里,我们做过多次智能眼镜的复盘。从 Meta AI 眼镜、到 Google AI 眼镜,再到下一代 AI 硬件,戴在头上的 iPhone 还有多远? 
编辑:周森
审校:小炫
排版:陈述

精致有料的科技报道

- shenzhenware -

1. 近期动向和热点:Ray-Ban Meta 带起了 50 个潜在的智能眼镜团队涌入该赛道;从谷歌的多模态 AI Astra 看出十年之后重做眼镜的野心。

2. 解构三类智能眼镜:科技公司眼里的酷≠消费者眼里的时尚有用,Ray-Ban Meta 眼镜强大细节,从芯片到设计、定制元器件、正在变聪明的多模态 AI 和软件服务;Google Glass 的问题不是隐私而是基础体验;AR 眼镜不仅面临芯片问题,连导航这样的简单应用至今没有做好。

3. 复盘智能眼镜的进化路线:Bose 试水音频 AR 最终做成了眼镜耳机;Snapchat 围绕拍照与 AR 特效做眼镜;部分公司在算力不足前提下做眼镜,形成了观影和翻译等市场。

4. 展望智能眼镜的下一个十年:从 Meta 及 Apple 的论文和路线图中,我们看到了彩色显示、环境理解等技术进步,和从骑行到翻译开始、到通用 AI Agent 的爆发。

本文内容基于科技播客「脑放电波」最新一期节目改编,节目中,Nixon、Thomas、Ian 三位 XR 行业从业者就智能眼镜十年复盘展开了近两个小时的交流。

根据图文阅读需要,本文对音频文字稿进行了编辑整理,部分口语话的内容也在不改变原意的基础上做了改写,并增加了层级标题、导读、插图和延伸阅读的内容,以方便读者阅读。

限于篇幅,本文将分上篇、下篇两次推送。

喜欢听播客的朋友,可以在小宇宙、苹果播客、喜马拉雅等平台,收听完整音频。文末附二维码链接。

01

近期动向和热点



导读:在 AI 硬件的众多产品形态和赛道中,智能眼镜是非常重要的一支,也很有可能会成为 AI 硬件中最后获得胜利的一支。

今年 WWDC 苹果正式发布 Apple Intelligence,苹果硬件设备也将陆续接入,紧接着华为跟进,AI 手机、AI 硬件的攻坚战正式打响;

第二代 Ray-Ban Meta 热销,带起了 50 多个潜在的智能眼镜团队涌入该赛道;

已经离开眼镜赛道的谷歌今年悄悄亮相了新眼镜,从谷歌的多模态 AI Astra 原型展示,看出十年之后重做眼镜的野心。

1.1 Meta Ray-Ban 已累计出货超 100 万副,超过 50 个团队在跟进类似产品



Nixon:Meta 与 Ray-Ban 合作的智能眼镜,第一代在 2021 年推出,口碑一般,第二代在 2023 年 10 月发布之后至今,整体出货量已经超过了 100 万。

这款眼镜采用了雷朋经典款式,内置一颗摄像头,没有显示功能。今年 3 月,Meta 为它推送了 AI 能力,不仅有语音交互,还有多模态交互,眼镜能看到你看到的东西,并且跟你做一系列的交互。

延伸阅读小扎用生成式 AI 为智能眼镜带来了新玩法

Ian:Meta 提供的多模态交互能力,以及它的穿戴舒适性,让它在 AI 方向上想象力大增。我们是作为 AR 行业的上游,在 Meta 眼镜爆火后,收到越来越多的行业伙伴来访咨询,聊到最多的话题:如果 Meta 眼镜能有显示能力,那么显示能力能为它提供哪些更多的价值?

Thomas:Meta 眼镜不仅带动了上下游,在这条船上的从业者也都感觉到了热潮。从供应链方面的消息,已知已经有 20 多个品牌在做类似概念的产品。加上正在拿融资的团队,估计有超过 50 个团队在试图做类似产品。一个产品范式成功后,会有一个集群效应,这个赛道热闹的样子,有点像 VR 在 2016 年的盛景。

1.2 从谷歌的多模态 AI Astra 看出十年之后重做眼镜的野心



Nixon:谷歌在 2012 年发布第一款智能眼镜 Google Glass,一直延迟到 2014 年 5 月才开始发货,从产品上市距今已经有十年。

回顾原型机,12 年前的原型机颇为惊艳:镂空的镜片设计,多模态的交互,显示模块可以通过触控滑动看到标签页,看天气、拍视频、发信息,720P 的清晰度其实也可以接受,还有 OK Glass 的语音互动。

产品上市一年半后,谷歌宣告停止 Google Glass 的销售,相当于宣告消费级 AR 眼镜的失败。但就在这之后的 2020 年,谷歌花钱买下了智能眼镜公司 North;2022 年又在 I/O 大会上展示了一款翻译眼镜。

直到今年的 I/O 大会上,配合多模态 Project Astra 的发布,一款新的智能眼镜亮相。已卸任谷歌 CEO 职位的布林在采访中说:Project Astra 是智能眼镜的绝佳拍档,它为智能眼镜带来了「杀手级」应用,两者相组合,就是完美的硬件形态。

延伸阅读几秒钟闪过的谷歌新眼镜,是 AI 与 AR 最好的硬件载体 | Google I/O

Thomas:智能眼镜是 AI 的完美硬件形态,这个观点,创业者和投资人都非常爱听。

相比用手机演示多模态 AI 交互,眼镜就要高级得多,它一直戴在眼前,第一视角,随意戴着穿梭走动,随时响应。显然,这是大模型赋能到硬件之后,最完美的产品形态。

延伸阅读谷歌重返 AR 眼镜赛道,多模态 AI 助理成为杀手级应用,硬件已进入原型机开发阶段

有一个问题留给听众/读者:为什么 Meta 投入了九年却只做了看起来很简单的东西,没想到是过渡性的拍摄眼镜却成功了,是运气很好?为什么谷歌花了十多年时间,来来回回,却一直连产品发售的勇气都没有?

02

解构三类智能眼镜



导读:科技公司眼里的酷≠消费者眼里的时尚有用,剖析 Ray-Ban Meta 眼镜的设计细节,从芯片到设计、定制元器件、正在变聪明的多模态 AI 和软件服务;

初代 Google Glass 的问题不是隐私而是基础体验未达标;

带显示模块的 AR 眼镜不仅面临芯片等硬件设计问题,连导航这样的简单应用至今也没有做好。

在这一单元,我们将解构三类智能眼镜:带摄像头的音频眼镜、带简单显示模块的智能眼镜、标准的 AR 眼镜。其中,关于带摄像头的音频眼镜 Ray-Ban Meta 的讨论比较多,从使用体验到 ID 设计、硬件、软件、应用生态等均有深入剖析。

2.1 Ray-Ban Meta 体验如何?



Nixon:说到智能眼镜,我们已经听到太多的声音:不就是 A+B、+C、+D,做起来并不难……所谓「外行动动嘴,研发制造跑断腿」。真要看细节,其实并不简单。

凭借第二代智能眼镜 Ray-Ban Meta 上市后的销量和口碑表现,Meta 已经在笨重的 VR 和 MR 头盔之外开辟了新天地。

先聊聊它的佩戴体验。


Ian:我用的最多的还是它的拍照和录像功能。跟我家的狗狗玩的时候,我让眼镜帮我拍下我和狗狗互动的一些瞬间。照片可以直接发送到 Facebook 或 Instagram,语音指令即可,帮你省了不少步骤。

作为我的旅游眼镜,一来拿它充当墨镜,二来拿它做旅游指南,简单地问 Meta AI 一些问题,比如:这是什么菜?这个景点有什么介绍?简单的问题是 OK 的。总体来说它的各方面表现都平衡,外观、感知、交互等等。

Thomas:它在基础能力上做得非常完善,包括刚才提到的拍照和录像,系统会主动做畸变修正和美颜处理。在外观 ID 上也很成熟,使用的是 Ray-Ban 历史上最畅销框架造型,作为时尚配饰它是出色的。在使用场景上,它完全可以充当一副蓝牙耳机、一台相机。

虽然我每天用的是它的基础能力,但是 Meta 的目标是冲着 AI 方向去的,这方面我的体验是非常惊艳的。

首先它的速度非常快,完全超预期。我在跟 Meta 眼镜用多模态交互的时候,在问完它一个需要拍照的问题之后,大概两秒钟左右就能获得答案。这么快,得益于它在眼镜里塞进了一颗高通骁龙 AR1 芯片,里面放了一个端侧模型,能够识别图片。这件事情本身就已经非常 AI 了,这也是十年前的谷歌想都不敢想的一件事情。

其次,得益于 Meta 的 Llama 3 AI 模型,它的识别能力也是惊艳的。我试过让它数苹果、识别富士山的照片、给它看深圳的春笋大厦、它都能给出满意的答案。有趣的是,我一个朋友拿了两个车模,一个是保时捷的 Panamera,另一个是小米 SU7,然后我给他看,我先是拿出第一个车模问 Meta 眼镜:Look and tell what this is。它回答:This is the model of a Porsche Panamera。我再拿出 SU7,它回答:This is a toy model of the Porsche Taycan。

图源:受访者供图

但这并不是说它的 AI 就强无敌,实际上它做算数题还是不行,数数也经常出错,它的能力还处于一个相对混沌的状态。好在大部分人买这副眼镜其实并不会天天问问题,好在它的基础体验非常好,不是在及格线、而是超预期的交付了,并且在超预期交付之后还能给到你一个未来,一个 AI 演进的未来,所以人们愿意等待 Meta AI 的慢慢迭代。

Nixon:我补充一个体验,这副眼镜的音频非常出色,空间感很好,好几次我分不清声音是眼镜扬声器还是我面前电脑的扬声器。

2.2 Ray-Ban Meta 在设计上的优点和不足



Nixon:第一代 Ray-Ban Meta 的 AI 功能弱很多,实际上,两年之前还没有 AI 大模型。但当时这款眼镜的拍照等基础功能,还都是有的。所以问题来了,为什么第二代的体验就能远超及格线?

Ian:我认为它各方面都做得比较平衡,刚好在及格线往上,可以做的更好。

比如提示灯的设计。Meta 这副眼镜内外有两颗指示灯,一颗是在外部,提示拍照或录像的;一颗在内容,提示语音助手响应的。外侧的那颗,是不是可以做的不那么的像摄像头,进一步弱化摄像头的存在感;而内侧的那颗,是不是可以放置在离视野近一些的地方,让佩戴者能更容易感知到。

外侧指示灯,图源:受访者供图

内侧指示灯,图源:受访者供图

还有,它延续了 Ray-Ban 的设计风格,虽然是为了把质感做好,但牺牲了眼镜重量,其实它可以做的更轻,比如在材料上采用镁铝合金。

我认为好的 AI 眼镜应该是首先满足日常眼镜化的形态,然后再加功能、加应用、加算力、加感知能力,在此基础之上,才是考虑增加 AR 的功能。

Nixon:过去几年很多品牌都想要做所谓的类似日常佩戴的眼镜,但最终的产品形态还是有一些怪异,比如,镜腿会很粗,镜框是正常镜框的 2-3 倍的宽度。这些都让消费者第一眼看到产生心理负担。

Ian:过去十年就是因为光学和传感器技术导致眼镜很难做轻、做小。Ray-Ban Meta 给我们做了示范,它在功能上做了很多裁剪、控制,首先保证日常眼镜形态,然后才是 AI 和感知能力。

Thomas:这其中的取舍是需要勇气的,因为没有显示的 AR 眼镜通常会被认为不够彻底。如今,受 Meta 启发,包括怒瞄 CEO 李楠在内的一些人反而认为,现阶段所有带光学的眼镜反而是没有机会成功的。

其实往前看十年,这个结论应该也是成立的。因为只要把光学器件放进去,它就会违背原则,第一要足够的轻,第二外形没有侵略性。



Nixon:几个比较具体的产品亮点。先说拍照功能,无论是从硬件规格还是实际效果来看,基本可以对齐 iPhone 10-12 的基础版。其次是耳机功能,它的这个麦克风很好,开会时对方听我的声音很清楚。科普一下,一般手机是 2-3 个麦克风,Vision Pro 因为空间音频的需要有 6 个麦克风,而 Ray-Ban Meta 有 5 个麦克风,相比而言它拥有非常奢华的麦克风配置。

就 AI 模型响应速度快而言,我也深有体会。Ray-Ban Meta 没有联网能力,让它拍照识图,它需要把图片通过蓝牙传到手机,借用手机上网查询,再从服务器把信息传回来,按照正常蓝牙的速度,单传输图片都需要 1-2 秒,服务器出海相应来回起码又需要 2-4 秒,快速响应是不可能的。

唯一的解释是它有一个本地模型,针对图片做了很好的预处理和压缩。回看高通 AR1 芯片的描述,我发现这确实这颗芯片非常核心的一个能力。

高通骁龙 AR1 中内置 NPU 模块,用于处理图片内容,技术原理有点类似手机的图片搜索能力。早期的图片搜索只能识别一些简单的元素如牛排、食物、苹果,或是图片中的文字,现在的图片搜索能力大大提升,可以识别小狗在海边奔跑、美女在微笑、爷爷抱着孙子,可以识别一个有情境的描述。

我认为 Meta 眼镜应该是具备类似能力,在眼镜本地就能快速的对单张图片进行索引化的处理,然后通过云端服务器来完成大语言描述。

延伸阅读:高通推 XR 新平台,不与苹果比拼,Meta 新眼镜双首发搭载
(链接:https://www.shenzhenware.com/articles/16207

2.3 Meta AI 的应用和服务生态



Ian:刚刚提到 Meta 眼镜最近提供了名叫 Calm 的类似冥想的音频服务,我最近花了几天时间深度体验了一下。

一个有意思的发现:我跟它的交互路径缩短了。以往冥想,首先我要戴耳机,然后手机解锁,找到那个应用,然后开才开启冥想过程。使用 Meta 眼镜,我直接语音:Hey Meta, play the daily calm,然后它就能够直接把冥想的内容播出来了,碎片时间的体验非常好。

Nixon:此次 Meta 打通了好几个 app,提供了非常多的周边服务。比如听音乐,就可以关联 Apple Music 和 Spotify 账号。比如拍照或做直播,一句话就能完成 Instagram 的实时分享、实时直播。还有 WhatsApp 和 Facebook Messenger 这两个应用。这就相当于我们在国内,用眼镜发微信消息、视频聊天、发朋友圈、开视频号直播!


最后我想强调的是,Meta AI 眼镜今天取得的成绩,反映出行业整体技术的成熟度,包括可穿戴类芯片的成熟(蓝牙耳机芯片、儿童手表芯片、新的 XR 芯片),以及声学、影像、AI 和元宇宙等相关技术的成熟。

2.4 Ray-Ban Meta 在产品设计上仍存在局限



Ian:Meta 的眼镜虽然卖得好,但它仍然有局限,不仅仅是不带显示功能这一点。

首先是它的使用人群有限,仍然还只是一些时尚博主、科技媒体、以及一些尝鲜者在使用,离普通消费者还是有点距离。

它以第一人称视角为卖点,但大部分人是不太需要的,最多作为手机或相机的补充。

它的 AI 交互能力也有局限,唤醒词和指令都需要学习的过程,并且一定会有盲区。

语音交互更大的局限性在于,它的输出是线性的,需要知道自己的意图,并逐字把想表达的东西说出来,并且还要知道怎么准确表达,这对于 i 人很不友好,肯定不如手机的触屏方便。

Nixon:大众用户为什么不会买这个产品呢?原因是大众用户还没有在这个产品上找到比较重度的应用场景,或者说,Ray-Ban Meta 还不太具备重度使用的能力。

最大的问题是续航时间。它目前只支持一分钟的视频录制,长视频需要重复启动录制,这正是续航焦虑的体现。就算不做录制,正常佩戴和使用,大概半天就要为电量焦虑了。因为续航不足,它就不能作为我全天候的蓝牙耳机,更不能作为替代手机的相机。

图源:zuck / Instgram

2.5 类似 Meta 的 AI  眼镜是不是一个好的创业机会?



Nixon:Meta 应该是有一个 30-50 人的团队在做 Ray-Ban Meta 这个项目,那么,这类产品对于小团队来说,是不是一个好的创业机会?

Ian:有机会,但是不容易。

对创业公司来说,产品演进路线一定是把眼镜做轻、适合日常化佩戴,这意味着它的结构设计必须简洁,意味着 BOM 清单比较简单。所以从硬件的角度,智能眼镜对于创业公司来说,入门门槛并不高,所以才会有 30 多个创业公司准备跑步进来。

简单同时也意味着很难做出差异化。在一副普通的眼镜里,塞进麦克风、喇叭、电池、SoC 等等,很多细节体验上的打磨,如果创业公司从零开始,还是有不少挑战。

比如 Meta 眼镜上的提示灯,它的设计特别巧妙,并没有占用你的核心视野,而是作为你对信息感知的补充。

做过光波导眼镜的人就知道,一条通知进来,它会呈现在眼前,这样就会打断佩戴者当前的心流和状态,这是一种不好的体验。未来 Meta 眼镜加进显示功能之后,可能就会保留这个提示灯,当通知进来后,提示灯先亮起来,让佩戴者先感知到通知,然后再通过某种交互方式去打开这条通知或者其他阅读操作。这是对注意力的保护。

至于在 AI 功能上的迭代,创业公司有机会,但不容易,需要做更多的摸索。

魅族 MYVU 眼镜

Nixon:既简单又难。简单是在这个产品构造上,难在产品体验上。一方面是交互体验,另一方面,单就一些眼镜的基础体验,要做到达标,其实也是有难度的。比如麦克风,它的硬件前端很简单,但软件算法很复杂,非常考验技术积累。

Thomas:基础体验意味着在同样的硬件条件下,能不能把效果调好,我认为这件事只有大厂可以做好。以高通 AR1 举例,且不谈创业公司与高通的谈判能力,能拿到什么价格,但就显示效果的调优,大公司和小公司能得到的供应链支持就有很大差距。

五麦克风的降噪的算法并没有什么公版方案,需要自己有着足够的积累,才能把基础体验的差异化跑出来。

天天跑工厂的人就知道,小厂要想让头部音频厂给单独开个模,业务优先级会排到什么位置,什么时候才能交付。

再说软件,国内要在眼镜上做微信应用,微信的 API 也不是普通的创业团队有机会拿到的。类似微信视频号直播等应用接口和入口,在 AI 硬件时代,互联网大厂是绝对不会放手的,一定会自己先把它搞定,放在自己的兜里。在应用生态上,创业团队的创新点基本上也就被堵死了。

在基础体验上,手机大厂是绝对有能力卷出一个比  Meta 还要强的 AI 眼镜的。几十人的创业团队是很难具备这种综合能力的。

另外还有品牌联名合作。眼镜有很强的饰品属性,用户看重眼镜腿上的那个雷朋的牌子。华为可以与 Gentle Monster 合作,但对创业公司来说就不容易了。

所以,我认为 AI 眼镜可能并不是一个好的创业机会。

Ian:我认为音频方向上的创新已经机会不大了,而 AR 原生算法、利用眼镜本身的图像和音频感知能力,提升眼镜对情景的综合感知能力,这个方向上是有机会的。

眼镜加上视觉感知后,延伸就有了空间交互。比如,站姿还是坐姿、移动还是静止,姿态对于空间交互设计的影响。再比如,借用机电腕带或智能戒指的微手势交互,再进一步的眼动交互,这些方向上还是有创新机会的。它们共同服务于数据采集的目的,当然这些数据也不一定来自于眼镜本身,也可以来自于其他外部设备。


2.6 Google Glass 的设计是超前的,但为什么失败了呢?



Nixon:聊到眼镜上带显示功能,其实最早这样做的是 12 年前的 Google Glass,这副眼镜很多设计想法在今天看起来都是依然超前的。

它有时尚属性,最早上过时装周,甚至很早(2014 年)就跟雷朋等眼镜厂商合作过,以提升智能眼镜的时尚属性。

它有显示功能、有语音交互、还可以拍照,甚至在这三个功能的基础上,还有一套应用生态,一开始就希望把第三方的开发者吸引进来。除了原生的导航之外,还有印象笔记、纽约时报、Path 等等。

初代 Google Glass 的演示是超前的,甚至是 Meta 的下一代产品才能达成的。但为什么谷歌会失败呢?很多人认为它侵犯了隐私,但我认为这是一个偏见,隐私只是产品价值不足的借口。

Ian:在我看来,它的失败原因有两点:其一,发布的时间点不太对,它的单目棱镜方案、以及向外突出的设计,反映了当时的供应链方案不成熟。其二,发布会演示功能到了消费者手中,其实体验也没有那么好,有落差。

Thomas:非常超前的设计,单边凸显的棱镜,一看就是参考七龙珠的原型设计,再加上金属镜框,有点像半个紧箍咒,整体看下来还是挺动漫的。

非常滞后的交付。2012 年发布,2014 年才上市,消费者上手后落差很大,发热、发烫,单目聚焦反人性,十年前的半导体水平和棱镜光机,很难承载硬件设计的需要,所以一再推迟交付。

Nixon:光学设计存在问题。人有主视觉眼睛,而谷歌将棱镜光机安放在右眼上,对于左眼是主视觉眼的就很不友好。一方面会很容易斗鸡眼,另一方面很容易眼疲劳。这是违背最基本的人体工学原则的。


Ian:说起 FoV 只有 15 度,角度小不是关键原因,当前的光波导眼镜其实也就 20 度左右,单目是违背人眼工作原理的,当左右眼看到的东西不一样的时候,大脑会报错。所以,参考我们做眼镜的经验,AR 眼镜的近眼显示是不能做成单目体验的。

Thomas:价格也是导致失败的一个重要原因。1500 美金相比 Ray-Ban Meta 的 299 美金起售价,谷歌高估了消费者对一个设备的承受能力。

没有兑现眼镜发布时的承诺功能,导致延期两年上市,极大的挑战了消费者的耐心和好奇心。这个原因更重要。

Nixon:今年 I/O 大会后,谷歌前 CEO 布林在聊他们的多模态 AI 新眼镜时谈到,他现在仍认为初代 Google Glass 的外形非常酷。但我觉得这是产品设计思想上的问题,也就是说,你可以把产品做的很酷、标榜很酷,但是你不要向大众交付这种看起来很极客的酷,因为大众想要的是那种时尚的酷。

2.7 真正的 AR 眼镜,还缺点什么?



Nixon:最后我们聊一下真正的 AR 眼镜。

谷歌眼镜早年有一个宣传片《One Day》为我们描绘了 AR 眼镜的使用场景。片中的基础交互和基础应用,在我看来直到今天都还没有做好。

主菜单

提醒

查看天气

‍‍
语音回复消息

导航

拍照和分享

视频通话和视野分享

在这几年陆续体验了一款又一款 AR 眼镜后,我的感慨是:为什么使用场景还是这么单一?AR 眼镜总是给人很高的预期,但是实际用起来又会觉得一点都不像他说的那么酷。这到底是什么原因?

Ian:AR 眼镜当前我们看到品牌并不多,它们也的确没有把用户体验做好。每一副 AR 眼镜的应用都少不了三件套:语音助手、提示器、导航,但每一个功能其实使用频次都不高,能解决的用户痛点也没有那么痛。

首先是导航。为什么要把导航视图放在眼前,为什么需要近眼显示?我们的研究发现,人在近眼区域看导航的时候,注意力被空置出来,转向了周边环境,这样就能在导航时提高对周边环境的记忆力。这与手机等其他设备提供的导航体验是不一样的,也是 AR 眼镜做导航的一个特性。

其次我认为导航可以做一些 3D 化尝试。当前很多眼镜是把一些 2D 信息直接放在眼前,加上箭头,加上语音播报,我认为这种用户体验做得太浅了,可以有更多的 3D 尝试,甚至是 3DoF 的导航。比如,导航信息放在低头位置,需要的时候低头才能看到,不会一直挡在眼前。确保注意力始终放在现实世界,只有需要信息的时候,转换视线,信息才会出现。

这些都是我们自己在探索过程中总结出来的,没有统一的答案。

INMO Go AR 眼镜 / YouTube

Nixon:这就好像在物理世界,导航最理想的状态其实是路牌,只有你需要看路牌的时候,那个路牌才会出现在注意力中心。不需要的时候,那个路牌就乖乖的从你视野边缘淡去。

加入 3DoF 导航的功能真是一个好主意,侧一侧头、侧一侧脸,路牌就会出现,而不是有一个箭头一直怼在眼前。

Thomas:高预期、低落地的问题,在整个 XR 圈子都非常严重。不仅产品广告,还有科幻电影,不断的拉高我们的预期。

一些轻量化设备厂商,在将 AR 显示功能加进眼镜里的时候,是否想过它究竟能给眼镜带来哪些价值?使用场景是不是足够刚需?尤其是当眼镜增加了光机的重量后,它是否还能像 Ray-Ban Meta 一样成为一个时尚化的配饰?

提到刚需场景,我对社交辅助的需求还是很强的。

在社交场合,它能告诉我眼前的人是谁,其实这一功能的视线离我们也不远了。

隐私的问题完全不用担心,连苹果都可以在云端放一个服务器,用大模型去分析你本地数据,同时向你保证这是非常安全的,那么我相信对于 AR 眼镜来说,一定也会有一个解决方案,可以在保护隐私的同时,解决我在社交场合脸盲的问题。

Nixon:现在很多 AR 眼镜还在用 MCU,而不是 SoC,系统也都还是 RTOS,核心能力上很难支撑更好的用户体验。

下篇预告,敬请期待:

03:复盘三个进化方向

Bose 试水音频 AR 最终做成了眼镜耳机;Snapchat 围绕拍照与 AR 特效做眼镜;部分公司在算力不足前提下做眼镜,形成了观影和翻译等市场。

04:展望下一个十年

展望智能眼镜的下一个十年:从 Meta 及 Apple 的论文和路线图中,我们看到了彩色显示、环境理解等技术进步,和从骑行到翻译开始、到通用 AI Agent 的爆发。


本文内容基于科技播客「脑放电波」最新一期节目改编,节目中,Nixon、Thomas、Ian 三位 XR 行业从业者就智能眼镜十年复盘展开了近两个小时的交流。

喜欢听播客的朋友,可以在小宇宙、苹果播客、喜马拉雅等平台,收听完整音频。


点击这里

关注并星标我们



推荐阅读

MR 大厂扎进企业级市场,AR 与 AI 相爱更深,全球最大 XR 展会 AWE 有哪些看点和机会?


AirPods 开启点头摇头,还带来了 TWS 耳机的五大进化方向


一机能扛两年!十大本土应用 + visionOS 2 十大系统更新,只待国行版 Vision Pro 发售!


苹果胶囊音箱 Beats Pill 下架两年、再度复出


苹果 AI 重磅登场:Siri 全面进化,自有模型,内挂 GPT-4o,私密云计算定义 AI 隐私标准


  //  ShenzhenWare

深圳湾(公众号 ID:shenzhenware)创办于 2014 年,是最早也是最活跃的硬件创新媒体和社区。深圳湾还有一个英文名:shenzhenware,起源于 software + hardware。深圳湾不仅是地标,更是大湾区创新的动力,用精致有料的科技报道,推动产业创新!


微信私人客服:小炫(ID:warexx)。欢迎读者和社会各界与我们联系,创始人「深圳湾的炫姐姐」欢迎你随时来湾里做客。


如有意愿加入我们,请发送简历至 shining@shenzhenware.com











深圳湾
深圳湾是最早也是最活跃的硬件创新媒体和社区。深圳湾还有一个英文名:shenzhenware,起源于 software + hardware。深圳湾不仅是地标,更是大湾区创新的动力,用精致有料的科技报道,推动产业创新!
 最新文章