用 AR 眼镜重构生活记忆:我做了一个「空间记忆管家」智能体

张开发
2026/4/20 1:08:39 15 分钟阅读

分享文章

用 AR 眼镜重构生活记忆:我做了一个「空间记忆管家」智能体
用 AR 眼镜重构生活记忆我做了一个「空间记忆管家」智能体很多瞬间其实并不盛大却会在未来某个时刻突然变得珍贵。比如家里一次普通的生日聚会朋友坐在沙发上聊天时的笑声傍晚海边一段安静的散步或者旅行途中抬头看见的一片晚霞。过去这些画面大多只能依赖人脑去回忆而人脑的记忆又总会随着时间流逝而变得模糊。所以我常常会想有没有一种方式不只是“拍下来”而是能够把当时所处的空间、情绪、人物关系和场景要点一起保存下来并在未来用更自然的方式被重新唤醒正是基于这个想法我设计并开发了一个面向 AR 眼镜场景的智能体——空间记忆管家。它是一个以AR 场景识别 自然语言生成 记忆数据库检索为核心的智能体系统。它希望帮助用户完成两件事第一主动记录值得留存的空间时刻第二在未来某个时间点通过一句自然语言指令快速找回那段记忆并以“场景描述 AI 重构”的方式重新呈现。想象一下某次难忘的生日聚会当朋友们一同祝你生日快乐的时候你很感动这个时候你让空间记忆管家帮你记录下这个时刻多年之后你再次回味并且有了实体化的图片别提有多性情啦一、为什么是Rokid AI Glasses而不是普通手机相册其实照片一开始就是承担了类似记忆的作用。它们固然有价值但存在一个问题它们保存了图像却没有真正保存“情境”。当用户多年后翻看一张照片时往往需要自己再次解释这是谁、那天发生了什么、为什么当时让自己感动。而 AR 眼镜的独特之处在于它天然具备“第一视角 空间感知 即时交互”的能力。对我来说让“记忆记录”从一张平面的图像升级为带有空间语义的信息片段用户戴着眼镜看到什么系统就能理解什么用户说“帮我记住这一刻”系统不仅能够捕捉画面还能识别人物、物体、环境特征并生成带有情感基调的场景描述。几年后用户只需要说一句“回忆去年生日聚会”系统就能够从数据库中检索出对应内容并以更贴近记忆的形式唤醒它。这样来看它能够带给用户的记忆相比照片是更具体更实在也更具象化的。二、智能体定位空间记忆管家接下来是偏技术的东西。我为这个智能体设计的角色是一个基于 AR 技术的“空间记忆管家”。它的核心职责包括三部分第一AR 场景实时识别与多维度描述。当用户主动触发记录时系统会调用视觉识别能力对当前场景进行结构化理解包括场景类型、关键人物、核心物体、环境特征和整体情绪。随后生成一段控制在 150 到 200 字左右的自然语言描述使这段记忆不只是原始图像而是可读、可检索的语义化内容。第二记忆存储与智能索引构建。识别后的文本描述、标签信息和视觉摘要会被写入数据库并建立时间、地点、人物、物体、情绪等多维索引。这样一来用户未来既可以通过“生日蛋糕”“海边日落”这样的关键词检索也可以通过“2024 年暑假”或“感动瞬间”这样的语义条件进行召回。这个很重要我去检索了下人类记忆的有关信息“锚点”或者说“关键物品”是唤醒记忆的很重要的载物所以这个不能省略。第三语音唤醒与场景重构。当用户发出“回忆去年生日聚会”之类的指令后系统会解析检索条件从记忆库中找到最匹配的结果并输出一段场景唤醒描述。如果后续接入图像生成或空间重构能力还可以进一步生成“AI 重构示意”让记忆从纯文本重新回到更具沉浸感的形式。三、我的开发过程是怎么样的很简单任何项目都会有目的我的目的就是很多时刻值得被记录但我希望未来能重新进入那个场景而不是只翻看一张照片。在Rokid灵珠智能体平台上操作很方便有人设与回复逻辑、工作流、数据库等智能体平台的标配功能并且还有着适配AR眼镜的关键功能。在开发时我先没有急着追求复杂的 3D 重建而是先把问题拆解成三个更务实的模块如何在眼镜端接收用户主动触发的记录请求如何把画面和语音转成结构化记忆如何让这些记忆在未来可检索、可唤醒。在智能体设计阶段我先定义了清晰的边界1.它只响应用户主动触发不自动监控环境2.它只基于视觉识别结果生成描述不允许虚构细节3.它只对本人开放记忆内容检索前必须经过验证4.它生成的重构结果必须明确标注为“AI重构示意”毕竟不是完全真实肯定不能代替实质上的记忆嘛有了这些原则之后整个系统架构就逐渐清晰了输入端是 AR 眼镜的视觉与语音入口中间是智能体工作流编排后端则是数据库与检索逻辑。四、工程实现知识库、数据库与工作流的组合在工程实现上我采用的是**“知识库 数据库 工作流”**的结构。其中知识库并不用于存储用户私人记忆而是用来保存智能体的规则体系比如场景分类标准、情绪标签定义、隐私限制说明、输出格式模板等。知识库的作用更像一个稳定的“规则层”保证智能体在不同场景下的回答风格和行为边界保持一致。真正的“长期记忆”则放在数据库中。我主要设计了三类数据表第一类是记忆主表用来保存每一条空间记忆的核心信息包括标题、场景类型、场景描述、情绪基调、时间地点、关键物体、未识别元素、隐私等级等。第二类是标签表用于存储可检索标签如人物、物体、地点、时间、情绪等。第三类是用户画像表用于记录用户偏好和最近一次记忆摘要保证关机再开机后系统仍然能够延续上下文。在工作流上我重点实现了两条主链路。1. 记忆采集工作流用户说“帮我记住这一刻”后系统开始工作。首先判断这是不是一次明确授权的记录请求如果不是则不进入采集流程。接着调用视觉理解节点提取当前画面中的人物、物体和环境信息并输出结构化 JSON。然后语言生成节点基于这些结果生成一段 150 到 200 字的场景描述同时补充标题、情绪标签、时间地点等字段。最后数据库节点将这些内容写入记忆表和标签表中。2. 记忆检索工作流当用户说“回忆去年生日聚会”时系统先解析这句话中的时间范围、关键词和情绪倾向然后在数据库中查找最相关的记忆记录。查询结果返回后再由模型做一次相关性排序最终生成自然语言版的“场景唤醒结果”。如果对应记忆存在图片或视觉摘要还可以继续输出“AI重构示意”帮助用户更直观地回到那段记忆中。3.记忆唤醒工作流顾名思义就是唤醒以前的场景。用户语音唤醒 → 【语音识别工具】解析指令 → 技能2检索匹配记忆 → 技能3调用【文生场景引擎】生成场景重构结果并反馈给用户。五、Demo 演示一次生日记忆的记录与唤醒为了验证系统的可行性我为“空间记忆管家”设计了一个很简洁的Demo但是场景较为杂乱和不规矩这样能确保其在任何场景下都能生效。记录阶段用户戴着 AR 眼镜说“记录该场景”系统识别到这是主动授权的记录指令于是读取当前画面信息桌面、黑色、电线、手等。然后生成如下风格的描述随后系统自动写入标签。唤醒阶段几个月后用户说“回忆上次场景”系统解析出关键词和时间偏向从记忆库中找到对应记录并返回“已为你找到一段与‘上次场景’高度相关的记忆。那是一次桌面场景记录画面中心是一张灰黑色的桌面…内容为 AI 重构示意可能与原始场景存在偏差。”然后会通过文生图模型生成最适配的图片来帮助用户回忆它不再只是“找到了一张照片”而是让系统真正理解并复述了那一刻的空间和情绪。六、项目中的挑战与反思这个项目在实现过程中也遇到了几个很现实的问题。第一视觉识别不等于真实理解。模型可以识别“蛋糕”“桌子”“人物”但不一定知道“这是一个生日场景”。因此在工作流中我采用“视觉结果先结构化再由语言模型归纳场景类型”的两步法而不是让模型一步生成长文以减少幻觉风险。第二记忆不应该等于监控。因为这个项目涉及私人生活记录所以隐私设计必须先于功能设计。我明确规定只有用户主动触发时才允许进入采集流程且记忆检索必须经过验证。这一点不仅是产品伦理问题也是 AR 设备落地生活场景的前提。第三重构不等于还原。我不希望系统误导用户以为 AI 生成的内容就是“真实发生的一切”。所以在每次记忆唤醒结果中我都强制加入“AI 重构示意”的标识。这既是技术诚实也是对用户记忆边界的尊重。七、结语让记忆从“保存图像”进化到“保存场景”做这个智能体的过程中我越来越确信AR Glasses 最值得探索的方向之一不只是信息展示和即时问答而是把人与现实世界之间的关系变得更可记录、可理解、可延续。照片保存的是一个平面瞬间而“空间记忆管家”希望保存的是一段被理解过的生活场景。它仍然只是一个起点。未来如果再接入更成熟的 AR 空间建模能力、更精细的多模态理解能力以及更自然的语音交互这个智能体有机会从“记忆记录工具”进一步成长为真正的“个人回忆助手”。而我也期待有一天当用户说出“带我回到那次海边日落”眼镜不只是展示一段文字和图片而是真的能把那份情绪重新带回眼前这或许要引入VR技术不过我相信国产AI眼镜有着像Rokid这样的品牌领航并不会遥远

更多文章