本文来自微信公众号:爱范儿 (ID:ifanr),作者:发现明日产品的,原文标题:《我试戴了 Meta AI 带屏眼镜:第一次觉得 AI 眼镜有戏了》
哇,整个这个眼镜戴上去的感觉太科幻了!
这是我戴上Meta Ray-Ban Display的第一反应。说实话,从看到去年Meta Orion样机的表现之后,我的期待值原本没有特别高,但真的把Display戴在头上,我突然觉得这个行业有戏。
在Meta Connect 2025发布会上,这副售价799美元的「带屏智能眼镜」终于揭开面纱。它是Meta首款支持显示功能的智能眼镜,通过右眼的彩色光波导HUD和配套的Neural Band腕带,把「脸上的AI」从概念变成了现实。
与Orion样机类似,Display采用的显示技术是彩色光波导,这种仅依靠光线在载体内反复折射、将画面反射到镜片中间的技术是目前AI眼镜最主流的显示方式。但Meta实现了一项很特殊的指标:低至2%左右的漏光率。
也就是说HUD点亮时,你对面的人完全看不到光波导的反射和漏光,不像是今年早些时候谷歌推出的XR眼镜样机那样会有一个明显的反射区域:
即使我的朋友站在对面,在屏幕完全点亮时也完全察觉不到。只有从侧面角度,才能看到几排光波导屏幕导线的反光。
只不过,根据外媒TheVerge的上手体验,Meta这块过于透明的屏幕也有一些弊端:由于和你对话的人完全看不到你在看什么东西,可能会感觉你有点心不在焉、视线没有集中在人身上。
至于实际的屏幕显示效果,Display这块光波导屏幕亮度足足有5000尼特,搭配默认标配的光致变色镜片,在光线过强的户外镜片会变成墨镜片,可读性依然非常优秀。
单眼显示与神奇的Neural Band
之前我一直担心单眼显示会不会很奇怪,但实际体验完全打消了这个顾虑。我已经连续使用了一个多小时,最明显的感受是它可以跟现实世界无缝融合。
虽然Display仅有一块位于右侧的屏幕,但它的单眼显示效果与环境融合的很好,因为屏幕的位置和视场角(FOV)都设计的比较低,在直视的时候屏幕的显示区域会落在对方的胸口处,几乎和电影的字幕是完全一样的。
因为扎克伯格比对方矮,需要低头对话
这块600×600像素的屏幕虽然面积不大,但能做的事情跟手机很像,换句话说,整个显示界面的设计和逻辑完成度都非常高,几乎不会有使用时不知所措的情况。
比如我用它看WhatsApp和Messenger消息,整个对话流其实是可以完整显示出来的。通过手指上下滑动翻页,再用语音转文字回复的过程也非常流畅。我甚至在想,真的可以很长时间不用把手机从兜里掏出来了。
而作为Display的主要操控方式,配套的Neural Band腕带更是改变了游戏规则。
虽然和苹果Vision Pro一样都可以通过手指手势操控,但Display并不依赖摄像头,而是借助腕带读取手腕的肌电信号(EMG)来识别的,也就是说你的手可以放在身体两侧、背在身后、甚至藏在口袋里,手势依然能被准确识别。
Neural Band的主要操作方式包括双击中指点亮屏幕、单击中指退出、单击食指确定、旋转手腕放大,以及用拇指在食指上滑动翻页等等。虽然需要一点学习时间,但是掌握难度并不高,灵敏度也是很优秀的。
而Display用来处理输入的方式则更加有趣。除了通过耳机上的6麦克风阵列做语音输入之外,你其实还可以戴着Neural Band直接在平面上写字,腕带会结合肌电信号和陀螺仪识别手写的字母,就像扎克伯格在发布会演示的这样:
扎克伯格在采访中透露了一个有趣的细节:他已经能用这个系统达到每分钟30个单词的打字速度,几乎一整天都在用眼镜收发消息。他的高管们甚至能分辨出哪些消息是用眼镜发的——比如那些长度更短、但是秒回的信息。
更重要的是,扎克伯格认为Neural Band的潜力远不止于此:
(虽然)我们发明Neural Band是为了配合眼镜使用,但我认为它最终可能成为一个独立的平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备甚至智能家居的方式。
那些真正打动我的功能
如果说戴着Neural Band虚空写字像是变成了钢铁侠一样,那眼镜里的实时字幕功能让我感觉获得了超能力。
唤醒的方式很简单,说一句「Hey Meta,turn on live captions」,对面人口中的英语就会实时显示在屏幕上。在嘈杂环境里,Display甚至能准确识别你正在看的那个人的声音,多个人同时说话也不会混淆。
并且得益于前面提到过的屏幕位置,戴着Display看实时字幕的方式,简直就是把眼前的现实变成了看电影。
虽然核心软件仍依赖手机连接,但这远不只是一个通知镜像。你可以发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行Meta AI识别眼前的物体。
发布会上演示的LiveAI实时视觉识别场景
Meta的CTO Bosworth强调:清晰的文字渲染是让AI变得有用的关键——如果AI只能语音回复,你获得的信息就有限。而当你提问后它能直接显示答案,这样不仅更直观,也更私密。
这种基于「你能看到结果」的确定感是普通版Meta Ray-Ban智能眼镜的纯语音交互无法给予的,并且在实际生活里,语音唤醒AI助手在很多场合是不太方便的,Display语音/手势/视觉混合交互就不会有这种问题。
在体验Display的时候,我试着用Meta的AI功能识别了一幅画。Display不只是语音回答,还在屏幕上显示了相关的信息卡片,信息密度相比纯语音交互(等AI慢慢念完)也更高一些。
这块小屏幕甚至可以用来预览相机画面,以及看视频——虽然FOV很小,但画面大小刚好,细节都能看清。如果朋友发来视频链接,你可以直接在眼镜上打开查看并快速回复,整个过程不用掏手机。
总之Meta Ray-Ban Display体验下来,我觉得这副眼镜的核心价值有三点:
增大信息密度:哪怕只有一两行字的显示,获取的信息也比纯音频多得多
给予确定感:能看到具体的界面、动画和菜单选项,让眼镜的操作更有把握
成为AI的通路:AI能看到你所见,你也能看到它的反馈,让AI更无缝地融入日常生活
这可能真的是下一个iPhone时刻
扎克伯格在访谈中的判断很明确:
眼镜将是下一个计算平台。这是唯一能让AI看到你所见、听到你所听、全天候与你对话的设备。
全球有10-20亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的AI眼镜?扎克伯格说:我觉得这就像iPhone出现时,大家都还在用翻盖手机,但变成智能手机只是时间问题。
Meta瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量只有几十万副,但Bosworth预测「我们生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期使用AI和其他服务」。
体验结束后,我最大的感受是:Display不再是概念产品或开发者玩具,而是真正可以日常使用的工具。
虽然799美元不算便宜(一台iPhone 17也是这个价),20度的FOV和600×600的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。
我觉得Meta Ray-Ban Display的目标很明确——减少掏出手机的次数,把那些快速查看和回复的操作都通过眼镜完成。从这个角度说,它确实做到了。
或许正如扎克伯格所说,这就像智能手机替代功能机的时刻。智能眼镜的技术拐点已经到来,只是还未完全普及。而Meta Ray-Ban Display,可能就是这场变革的开始,可能就是下一个iPhone时刻。
上一篇:宗馥莉,抛弃娃哈哈?
下一篇:体育外卖,究竟能火多久?