我试戴了Meta AI 带屏眼镜:第一次觉得AI 眼镜有戏了
创始人
2025-09-18 18:28:27
0

本文来自微信公众号:爱范儿 (ID:ifanr),作者:发现明日产品的,原文标题:《我试戴了 Meta AI 带屏眼镜:第一次觉得 AI 眼镜有戏了》


哇,整个这个眼镜戴上去的感觉太科幻了!


这是我戴上Meta Ray-Ban Display的第一反应。说实话,从看到去年Meta Orion样机的表现之后,我的期待值原本没有特别高,但真的把Display戴在头上,我突然觉得这个行业有戏。


在Meta Connect 2025发布会上,这副售价799美元的「带屏智能眼镜」终于揭开面纱。它是Meta首款支持显示功能的智能眼镜,通过右眼的彩色光波导HUD和配套的Neural Band腕带,把「脸上的AI」从概念变成了现实。


与Orion样机类似,Display采用的显示技术是彩色光波导,这种仅依靠光线在载体内反复折射、将画面反射到镜片中间的技术是目前AI眼镜最主流的显示方式。但Meta实现了一项很特殊的指标:低至2%左右的漏光率。


也就是说HUD点亮时,你对面的人完全看不到光波导的反射和漏光,不像是今年早些时候谷歌推出的XR眼镜样机那样会有一个明显的反射区域:


即使我的朋友站在对面,在屏幕完全点亮时也完全察觉不到。只有从侧面角度,才能看到几排光波导屏幕导线的反光。


只不过,根据外媒TheVerge的上手体验,Meta这块过于透明的屏幕也有一些弊端:由于和你对话的人完全看不到你在看什么东西,可能会感觉你有点心不在焉、视线没有集中在人身上。


至于实际的屏幕显示效果,Display这块光波导屏幕亮度足足有5000尼特,搭配默认标配的光致变色镜片,在光线过强的户外镜片会变成墨镜片,可读性依然非常优秀。


单眼显示与神奇的Neural Band


之前我一直担心单眼显示会不会很奇怪,但实际体验完全打消了这个顾虑。我已经连续使用了一个多小时,最明显的感受是它可以跟现实世界无缝融合


虽然Display仅有一块位于右侧的屏幕,但它的单眼显示效果与环境融合的很好,因为屏幕的位置和视场角(FOV)都设计的比较低,在直视的时候屏幕的显示区域会落在对方的胸口处,几乎和电影的字幕是完全一样的。


因为扎克伯格比对方矮,需要低头对话


这块600×600像素的屏幕虽然面积不大,但能做的事情跟手机很像,换句话说,整个显示界面的设计和逻辑完成度都非常高,几乎不会有使用时不知所措的情况。


比如我用它看WhatsApp和Messenger消息,整个对话流其实是可以完整显示出来的。通过手指上下滑动翻页,再用语音转文字回复的过程也非常流畅。我甚至在想,真的可以很长时间不用把手机从兜里掏出来了


而作为Display的主要操控方式,配套的Neural Band腕带更是改变了游戏规则。


虽然和苹果Vision Pro一样都可以通过手指手势操控,但Display并不依赖摄像头,而是借助腕带读取手腕的肌电信号(EMG)来识别的,也就是说你的手可以放在身体两侧、背在身后、甚至藏在口袋里,手势依然能被准确识别


Neural Band的主要操作方式包括双击中指点亮屏幕、单击中指退出、单击食指确定、旋转手腕放大,以及用拇指在食指上滑动翻页等等。虽然需要一点学习时间,但是掌握难度并不高,灵敏度也是很优秀的。


而Display用来处理输入的方式则更加有趣。除了通过耳机上的6麦克风阵列做语音输入之外,你其实还可以戴着Neural Band直接在平面上写字,腕带会结合肌电信号和陀螺仪识别手写的字母,就像扎克伯格在发布会演示的这样:


扎克伯格在采访中透露了一个有趣的细节:他已经能用这个系统达到每分钟30个单词的打字速度,几乎一整天都在用眼镜收发消息。他的高管们甚至能分辨出哪些消息是用眼镜发的——比如那些长度更短、但是秒回的信息。


更重要的是,扎克伯格认为Neural Band的潜力远不止于此:


(虽然)我们发明Neural Band是为了配合眼镜使用,但我认为它最终可能成为一个独立的平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备甚至智能家居的方式。


那些真正打动我的功能


如果说戴着Neural Band虚空写字像是变成了钢铁侠一样,那眼镜里的实时字幕功能让我感觉获得了超能力。


唤醒的方式很简单,说一句「Hey Meta,turn on live captions」,对面人口中的英语就会实时显示在屏幕上。在嘈杂环境里,Display甚至能准确识别你正在看的那个人的声音,多个人同时说话也不会混淆。


并且得益于前面提到过的屏幕位置,戴着Display看实时字幕的方式,简直就是把眼前的现实变成了看电影。


虽然核心软件仍依赖手机连接,但这远不只是一个通知镜像。你可以发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行Meta AI识别眼前的物体。


发布会上演示的LiveAI实时视觉识别场景


Meta的CTO Bosworth强调:清晰的文字渲染是让AI变得有用的关键——如果AI只能语音回复,你获得的信息就有限。而当你提问后它能直接显示答案,这样不仅更直观,也更私密。


这种基于「你能看到结果」的确定感是普通版Meta Ray-Ban智能眼镜的纯语音交互无法给予的,并且在实际生活里,语音唤醒AI助手在很多场合是不太方便的,Display语音/手势/视觉混合交互就不会有这种问题。


在体验Display的时候,我试着用Meta的AI功能识别了一幅画。Display不只是语音回答,还在屏幕上显示了相关的信息卡片,信息密度相比纯语音交互(等AI慢慢念完)也更高一些。


这块小屏幕甚至可以用来预览相机画面,以及看视频——虽然FOV很小,但画面大小刚好,细节都能看清。如果朋友发来视频链接,你可以直接在眼镜上打开查看并快速回复,整个过程不用掏手机


总之Meta Ray-Ban Display体验下来,我觉得这副眼镜的核心价值有三点:


增大信息密度:哪怕只有一两行字的显示,获取的信息也比纯音频多得多


给予确定感:能看到具体的界面、动画和菜单选项,让眼镜的操作更有把握


成为AI的通路:AI能看到你所见,你也能看到它的反馈,让AI更无缝地融入日常生活


这可能真的是下一个iPhone时刻


扎克伯格在访谈中的判断很明确:


眼镜将是下一个计算平台。这是唯一能让AI看到你所见、听到你所听、全天候与你对话的设备。


全球有10-20亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的AI眼镜?扎克伯格说:我觉得这就像iPhone出现时,大家都还在用翻盖手机,但变成智能手机只是时间问题


Meta瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量只有几十万副,但Bosworth预测「我们生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期使用AI和其他服务」。


体验结束后,我最大的感受是:Display不再是概念产品或开发者玩具,而是真正可以日常使用的工具


虽然799美元不算便宜(一台iPhone 17也是这个价),20度的FOV和600×600的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。


我觉得Meta Ray-Ban Display的目标很明确——减少掏出手机的次数,把那些快速查看和回复的操作都通过眼镜完成。从这个角度说,它确实做到了。


或许正如扎克伯格所说,这就像智能手机替代功能机的时刻。智能眼镜的技术拐点已经到来,只是还未完全普及。而Meta Ray-Ban Display,可能就是这场变革的开始,可能就是下一个iPhone时刻。

相关内容

热门资讯

宿迁室内淘气堡 宿迁室内淘气堡 在宿迁,室内淘气堡作为一种新兴的儿童娱乐形式,逐渐受到许多家庭的关注。它通常指设置在...
海南把康养、研学旅游推介会带上... “在这里深呼吸一次,相当于做了一次肺部深度spa……”4月18日上午,在西安国际会展中心1号馆舞台区...
映山红遍井冈!第十七届杜鹃花节... 央广网井冈山4月19日消息(记者郇康新 见习记者尹博)4月18日清晨,一场春雨悄然停歇,井冈山茨坪镇...
广西百色5岁男童走失身亡,官方... 近日,广西百色市田阳区一名5岁男童走失,引发网友关注。19日下午,田阳区那坡镇政府发布情况通报称,该...
2026暑期出境游趋势报告:“... 随着国际航班持续恢复、免签目的地范围进一步扩大,2026年暑期出境游市场正展现出强劲的复苏势头与显著...
【人民网、央广网、中新网】绥芬... 人民网 人民网哈尔滨4月20日电 自免签政策实施以来,绥芬河锚定构筑向北开放新高地战略定位,立足口...
新津区学校推荐:成都为明学校交... 新津区学校推荐:成都为明学校交通通勤方案实测 "开车过去要多久?地铁能不能直达?早晚高峰会不会堵在路...
广州一地掀起“挖晶热”,现场满... 近日,有多名网友在社交平台发帖称,广州市黄埔区暹岗大山掀起“挖晶热”,不少人组团上山挖水晶,甚至将挖...