memU

2026-02-01

ai

时间是由分秒积成的,善于利用零星时间的人,才会做出更好的成绩来。——华罗庚

memU:为 24/7 主动型 AI 助手打造的“持续记忆

很多人给自己的 AI 助手灌了大量上下文,然而一旦“长时间在线、反复交互”,成本就被长上下文吞噬。memU 的目标很明确:给那些 24/7 Always-On 的主动型代理(如 openclaw/moltbot/clawdbot 生态)提供一套“会自己学习、会自己推断、会自己准备上下文”的记忆框架,用更小的上下文、更低的 token 成本,让“长期在线且不断进化”的代理成为现实。

  • 仓库:NevaMind-AI/memU
  • 官网与服务:memu.pro · 快速体验 memu.so · memU bot: memu.bot
  • 许可证:Apache 2.0
  • Python 3.13+ · 生态:memU-server、memU-ui 等
  • 一句话:24/7 Always-On Proactive Memory for AI Agents

它解决什么问题

memU 是为“主动型”代理做的记忆系统:

  • 持续捕获与理解用户意图(没有明确指令也能预判你要做什么)
  • 大幅降低常在线的 LLM token 成本(缓存洞见,避免重复推理)
  • 在后台持续工作,构建长期记忆,帮助代理“主动”行动

官方定位里明确提到:与 OpenClaw(Moltbot/Clawdbot)的使用方式相辅相成,也提供“下载即用”的 memU bot 变体。


三层记忆架构:Resource / Item / Category

memU 的层次结构既支持“响应式查询”,也支持“主动上下文加载”。

  • Resource:原始数据的入口
  • Item:从交互中抽取出的事实、偏好、技能
  • Category:主题化的总结与归纳

主动性带来的好处:

  • 自动分类与主题聚合
  • 识别重复模式与主题
  • 预测“下一步需要什么上下文”

这能让代理在你还没开��之前,就把“最近相关的上下文”准备好。


工作机制:Proactive Memory Lifecycle

框架引导一个“代理 ↔ memU bot ↔ 数据库”的持续同步回路:

  • 代理处理用户请求、执行任务
  • memU bot 监测输入/输出,抽取与更新记忆
  • 记忆结构不断演化,并向代理“注入”或“建议”上下文
  • 循环同步,使主动的上下文准备成为常态

快速体验:

1
2
cd examples/proactive
python proactive.py

场景示例:它如何“主动”

  • 信息推荐
    从浏览历史、收藏、搜索里学习你的主题偏好与可信来源,在适当时机推荐相关论文/资讯,并根据你的参与度过滤噪音。

  • 邮件管理
    学习你的回复模板、优先联系人、紧急关键词、调度偏好与语气风格;主动草拟常规回复、标记优先级、检测日程冲突、总结长线程要点。

  • 交易与金融监控
    从历史决策学习风险偏好、行业与品类偏好、市场事件的响应模式;在阈值触发时主动提醒与你的资产配置相匹配的操作建议。

这些场景的共同点是:memU 从连续交互里“主动学习”,并在“恰当时机”把上下文推送给代理,让代理像“懂你的助理”一样先一步处理。


快速开始:云端与自托管

  • 云端(Cloud Version):直接用托管服务,7×24 连续学习
    Base URL https://api.memu.so(API v3),支持连续学习任务、状态查询、自动分类、检索。
    完整 API 文档:memu.pro/docs#cloud-version

  • 自托管(Self-Hosted):

安装:

1
pip install -e .

快速测试(内存态):

1
2
3
export OPENAI_API_KEY=your_api_key
cd tests
python test_inmemory.py

持久化存储(PostgreSQL + pgvector):

1
2
3
4
5
6
7
8
9
10
11
12
13
# 启动 Postgres + pgvector
docker run -d \
--name memu-postgres \
-e POSTGRES_USER=postgres \
-e POSTGRES_PASSWORD=postgres \
-e POSTGRES_DB=memu \
-p 5432:5432 \
pgvector/pgvector:pg16

# 运行连续学习测试
export OPENAI_API_KEY=your_api_key
cd tests
python test_postgres.py

二者都演示了“连续摄取 → 自动抽取 → 主动检索”的完整工作流。


LLM 与向量:自定义配置与多供应商支持

memU 支持自定义 LLM 与嵌入模型,甚至能通过 OpenRouter 聚合多个供应商:

示例:自定义供应商(Qwen + VoyageAI)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
from memu import MemUService

service = MemUService(
llm_profiles={
"default": {
"base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"api_key": "your_api_key",
"chat_model": "qwen3-max",
"client_backend": "sdk"
},
"embedding": {
"base_url": "https://api.voyageai.com/v1",
"api_key": "your_voyage_api_key",
"embed_model": "voyage-3.5-lite"
}
},
# ... other configuration
)

示例:OpenRouter(多模型聚合)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
from memu import MemoryService

service = MemoryService(
llm_profiles={
"default": {
"provider": "openrouter",
"client_backend": "httpx",
"base_url": "https://openrouter.ai",
"api_key": "your_openrouter_api_key",
"chat_model": "anthropic/claude-3.5-sonnet",
"embed_model": "openai/text-embedding-3-small",
},
},
database_config={
"metadata_store": {"provider": "inmemory"},
},
)

两个核心 API:memorize 与 retrieve

memorize:连续学习流水线

实时处理输入并立刻更新记忆,零延迟获取抽取结果与分类结构:

1
2
3
4
5
6
7
8
9
10
11
12
result = await service.memorize(
resource_url="path/to/file.json", # 文件路径或 URL
modality="conversation", # conversation | document | image | video | audio
user={"user_id": "123"} # 可选:按用户维度分隔
)

# 返回:
{
"resource": {...}, # 资源元数据
"items": [...], # 抽取出的记忆项(立即可用)
"categories": [...] # 自动更新的分类结构
}

retrieve:双模式检索

  • RAG 快速上下文(method=“rag”):毫秒级;适合持续监控与轻量提示
  • LLM 深度推理(method=“llm”):秒级;适合复杂预判与意图演进
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
result = await service.retrieve(
queries=[
{"role": "user", "content": {"text": "What are their preferences?"}},
{"role": "user", "content": {"text": "Tell me about work habits"}}
],
where={"user_id": "123"}, # 可选:按用户或 agent 过滤
method="rag" # 或 "llm" 做更深推理
)

# 返回结构
{
"categories": [...],
"items": [...],
"resources": [...],
"next_step_query": "..." # 预测下一步上下文查询
}

依赖场景不同选不同模式,成本与速度也能精细控制。


实战例子:一键跑起来

  • Always-Learning Assistant(持续学习会话):
1
2
export OPENAI_API_KEY=your_api_key
python examples/example_1_conversation_memory.py
  • Self-Improving Agent(技能抽取与自我优化):
1
2
export OPENAI_API_KEY=your_api_key
python examples/example_2_skill_extraction.py
  • Multimodal Context Builder(多模态记忆融合):
1
2
export OPENAI_API_KEY=your_api_key
python examples/example_3_multimodal_memory.py

性能与生态

  • 在 Locomo 基准上平均 92.09% 准确率,说明主动记忆与检索的可靠性
  • memU-server:后端同步;memU-ui:可视化记忆看板
  • 多方合作伙伴与社区链接完善,API 与 UI 都能闭环

什么时候应该用 memU

  • 你有一个需要“24/7 在线”的个人助手或企业代理
  • 你希望它能“主动”准备上下文、主动做提醒与推荐
  • 你不想把每次对话都塞进超长上下文,成本和延迟都无法接受
  • 你需要把“会话、文档、图像、日志”等多源数据统一抽取为记忆,并在后续对话中自动浮现

小结

memU 的价值是“把上下文准备从被动变主动”。它把连续交互中的“偏好、规律、事实、技能”提炼成记忆项并进行层次组织,让代理“会提前知道你要什么”,并以更小的上下文与更少的 token 成本把结果呈现出来。
如果你想让你的 AI 助手不只是“问答器”,而是“懂你、先一步行动”的伙伴,memU 值得你试一试。

  • 仓库:NevaMind-AI/memU
  • 云端与 API:memu.so · memu.pro/docs
  • 自托管与示例:tests/ 与 examples/
  • 生态:memU-server · memU-ui · 合作伙伴
  • 社区:Discord、Issues、X

愿你的代理,从今天开始“记住你”,并主动为你准备好下一步。