行业首创空间3D显示,还能主动提醒和帮忙叫车,千问AI眼镜这操作真把我看愣了

行业首创空间3D显示,还能主动提醒和帮忙叫车,千问AI眼镜这操作真把我看愣了

行业首创空间3D显示,还能主动提醒和帮忙叫车,千问AI眼镜这操作真把我看愣了

一句话看懂:阿里千问为其AI眼镜S1推送了重大升级,新增基于用户状态和环境的主动服务能力(如出门提醒带伞、久坐提醒活动),并将在本月上线打车、闪购、拍题答疑等生活AI功能;同时,该眼镜首次在行业内实现空间3D显示,让导航提示等信息卡片在视野中呈现纵深感。这标志着AI眼镜从“用户主动指令”向“设备预判需求”的交互模式转变。

事件核心:发生了什么

千问AI眼镜S1此次升级包含两个关键维度。首先是交互逻辑的革新:眼镜不再仅等待用户唤醒或提问,而是通过分析佩戴者的位置、时间、天气、佩戴姿态(如低头时长)等上下文信息,主动触发提醒或服务。例如,在用户出门前结合天气预报主动提示带伞,或在用户长时间低头工作时提醒抬头活动。其次,眼镜显示技术取得突破,通过双光机和双目立体成像,实现了行业首创的空间3D显示,让信息在视野中具备分层和景深感。此外,基于阿里生态的生活AI能力将在本月上线,用户可直接通过眼镜完成打车、闪购查评分、拍题答疑、买电影票等操作。据维深Wellsenn XR数据,千问AI眼镜自3月开售以来线上累计销量占国内AI眼镜市场总份额53%,位居线上市场第一。

为什么重要

此次升级直接回应了当前AI眼镜行业的核心短板——“AI能力不够深”。目前多数眼镜的AI应用仍停留在翻译、识物、会议转录等基础场景,用户需主动发起才能使用,实际使用频次和场景黏性有限。千问通过整合阿里生态(如高德打车、饿了吗外卖、闲鱼闪购等),将高频生活服务“搬上眼镜”,大幅降低了用户的使用门槛。同时,空间3D显示技术的加入,实质上改善了头戴设备的视觉体验——现实世界是立体的,信息叠加也应当具备空间感,这符合人眼的天然视觉逻辑。更重要的是,从“被动响应”到“主动服务”的转变,意味着AI眼镜正从“穿戴式屏幕”演变为“具备感知与预判能力的随身AI入口”,这对整个可穿戴终端的产品形态和交互设计具有示范意义。

对用户/开发者/创作者的影响

对普通用户而言,最大的变化是“省心”和“场景覆盖”的提升:过去需要掏手机完成的日常琐事(查天气、叫车、点外卖、查评价)现在可以直接通过眼镜完成,且部分服务由系统主动发起,减少了“想不起来用”的烦恼。对开发者而言,千问主动服务的实现路径(基于位置、时间、姿态等多模态感知)和阿里生态API的接入方式,为第三方应用集成提供了可参考的案例;如果开放相关接口,开发者有机会围绕“场景预判”开发更多垂直应用(如健康提醒、会议纪要自动生成等)。对内容创作者而言,空间3D显示并非简单的视觉噱头,它可能催生适配头戴设备的立体信息交互设计需求,例如在导航中叠加具有深度感的箭头指引、在信息卡片中区分主次层级,这需要创作者重新思考信息呈现的逻辑。

值得关注的后续

第一,生活AI能力(打车、闪购等)原定本月上线,具体上线后的实际体验(如操作流程是否直觉、语音指令是否流畅、服务响应速度)需要观察,这决定了AI眼镜是否能真正替代手机完成高频日常操作。第二,空间3D显示技术是否会被其他AI眼镜厂商跟进,以及该显示方式在长时间佩戴下的舒适度(如眩晕感、功耗表现)如何,直接影响该功能的普及价值。第三,千问主动服务依赖的用户数据(位置、姿态、行为习惯)的隐私保护方案尚未在公开报道中详细披露,随着更多生活场景接入,数据安全与用户信任将是长期需要关注的问题。

来源:量子位 · 每日最新

celebrityanime
celebrityanime
文章: 848

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注