时间是由分秒积成的,善于利用零星时间的人,才会做出更好的成绩来。——华罗庚
memU:为 24/7 主动型 AI 助手打造的“持续记忆
很多人给自己的 AI 助手灌了大量上下文,然而一旦“长时间在线、反复交互”,成本就被长上下文吞噬。memU 的目标很明确:给那些 24/7 Always-On 的主动型代理(如 openclaw/moltbot/clawdbot 生态)提供一套“会自己学习、会自己推断、会自己准备上下文”的记忆框架,用更小的上下文、更低的 token 成本,让“长期在线且不断进化”的代理成为现实。
- 仓库:NevaMind-AI/memU
- 官网与服务:memu.pro · 快速体验 memu.so · memU bot: memu.bot
- 许可证:Apache 2.0
- Python 3.13+ · 生态:memU-server、memU-ui 等
- 一句话:24/7 Always-On Proactive Memory for AI Agents
它解决什么问题
memU 是为“主动型”代理做的记忆系统:
- 持续捕获与理解用户意图(没有明确指令也能预判你要做什么)
- 大幅降低常在线的 LLM token 成本(缓存洞见,避免重复推理)
- 在后台持续工作,构建长期记忆,帮助代理“主动”行动
官方定位里明确提到:与 OpenClaw(Moltbot/Clawdbot)的使用方式相辅相成,也提供“下载即用”的 memU bot 变体。
三层记忆架构:Resource / Item / Category
memU 的层次结构既支持“响应式查询”,也支持“主动上下文加载”。
- Resource:原始数据的入口
- Item:从交互中抽取出的事实、偏好、技能
- Category:主题化的总结与归纳
主动性带来的好处:
- 自动分类与主题聚合
- 识别重复模式与主题
- 预测“下一步需要什么上下文”
这能让代理在你还没开��之前,就把“最近相关的上下文”准备好。
工作机制:Proactive Memory Lifecycle
框架引导一个“代理 ↔ memU bot ↔ 数据库”的持续同步回路:
- 代理处理用户请求、执行任务
- memU bot 监测输入/输出,抽取与更新记忆
- 记忆结构不断演化,并向代理“注入”或“建议”上下文
- 循环同步,使主动的上下文准备成为常态
快速体验:
1 | |
场景示例:它如何“主动”
-
信息推荐
从浏览历史、收藏、搜索里学习你的主题偏好与可信来源,在适当时机推荐相关论文/资讯,并根据你的参与度过滤噪音。 -
邮件管理
学习你的回复模板、优先联系人、紧急关键词、调度偏好与语气风格;主动草拟常规回复、标记优先级、检测日程冲突、总结长线程要点。 -
交易与金融监控
从历史决策学习风险偏好、行业与品类偏好、市场事件的响应模式;在阈值触发时主动提醒与你的资产配置相匹配的操作建议。
这些场景的共同点是:memU 从连续交互里“主动学习”,并在“恰当时机”把上下文推送给代理,让代理像“懂你的助理”一样先一步处理。
快速开始:云端与自托管
-
云端(Cloud Version):直接用托管服务,7×24 连续学习
Base URLhttps://api.memu.so(API v3),支持连续学习任务、状态查询、自动分类、检索。
完整 API 文档:memu.pro/docs#cloud-version -
自托管(Self-Hosted):
安装:
1 | |
快速测试(内存态):
1 | |
持久化存储(PostgreSQL + pgvector):
1 | |
二者都演示了“连续摄取 → 自动抽取 → 主动检索”的完整工作流。
LLM 与向量:自定义配置与多供应商支持
memU 支持自定义 LLM 与嵌入模型,甚至能通过 OpenRouter 聚合多个供应商:
示例:自定义供应商(Qwen + VoyageAI)
1 | |
示例:OpenRouter(多模型聚合)
1 | |
两个核心 API:memorize 与 retrieve
memorize:连续学习流水线
实时处理输入并立刻更新记忆,零延迟获取抽取结果与分类结构:
1 | |
retrieve:双模式检索
- RAG 快速上下文(method=“rag”):毫秒级;适合持续监控与轻量提示
- LLM 深度推理(method=“llm”):秒级;适合复杂预判与意图演进
1 | |
依赖场景不同选不同模式,成本与速度也能精细控制。
实战例子:一键跑起来
- Always-Learning Assistant(持续学习会话):
1 | |
- Self-Improving Agent(技能抽取与自我优化):
1 | |
- Multimodal Context Builder(多模态记忆融合):
1 | |
性能与生态
- 在 Locomo 基准上平均 92.09% 准确率,说明主动记忆与检索的可靠性
- memU-server:后端同步;memU-ui:可视化记忆看板
- 多方合作伙伴与社区链接完善,API 与 UI 都能闭环
什么时候应该用 memU
- 你有一个需要“24/7 在线”的个人助手或企业代理
- 你希望它能“主动”准备上下文、主动做提醒与推荐
- 你不想把每次对话都塞进超长上下文,成本和延迟都无法接受
- 你需要把“会话、文档、图像、日志”等多源数据统一抽取为记忆,并在后续对话中自动浮现
小结
memU 的价值是“把上下文准备从被动变主动”。它把连续交互中的“偏好、规律、事实、技能”提炼成记忆项并进行层次组织,让代理“会提前知道你要什么”,并以更小的上下文与更少的 token 成本把结果呈现出来。
如果你想让你的 AI 助手不只是“问答器”,而是“懂你、先一步行动”的伙伴,memU 值得你试一试。
- 仓库:NevaMind-AI/memU
- 云端与 API:memu.so · memu.pro/docs
- 自托管与示例:tests/ 与 examples/
- 生态:memU-server · memU-ui · 合作伙伴
- 社区:Discord、Issues、X
愿你的代理,从今天开始“记住你”,并主动为你准备好下一步。