一万年太久,只争朝夕。——毛泽东
Sim:把 AI Agent 工作流搭成一条“所见即所得”的生产线
你是不是也有过这样的时刻:脑子里已经有一个能跑起来的 Agent 方案,结果工具搭建、数据接入、状态编排、模型联动、实时交互一大堆细节把你拽回现实。Sim 就是那个把想法迅速变成工作流的开源平台,让你几分钟内构建并部署 AI Agent 工作流,跑在云端或本地,拿起就用。
项目描述很克制:Open-source platform to build and deploy AI agent workflows。真正的亮点在于把复杂度藏到平台里,给你一个可视化的画布去连接 Agent、工具和模块,把“流程”做成了“积木”。
- 官网与托管版本:sim.ai
- 文档:docs.sim.ai
- 仓库地址:simstudioai/sim
- 技术栈:TypeScript、Next.js、Bun、PostgreSQL + pgvector、Drizzle ORM、Better Auth、Shadcn UI、Tailwind、Zustand、ReactFlow、Socket.io、Turborepo、Trigger.dev、E2B
它是什么:把 Agent 工作流从“代码堆”变成“画布”
-
画布式工作流搭建
在一个可视化画布上设计流程,把节点拖到一起,连接 Agent、工具与功能块,立即运行。这个体验对第一次尝试 Agent 编排的同学非常友好,也让团队沟通更顺滑。 -
Copilot 驱动的迭代
Copilot 能在画布里生成节点、修错误、对话式迭代流程,减轻你查文档和找参数的心智负担。你说出需求,它帮你把块和连线补齐。 -
向量数据库集成
上传文档到向量存储,工作流里的 Agent 直接做基于你内容的问答与检索,落地 RAG 更轻量。官方 README 展示了知识上传与检索的演示。 -
云端与自托管并行
你可以直接用 sim.ai,也可以在本地或私有环境里自托管(NPM 一键、Docker Compose、Dev Container、手动环境)。同时支持 Ollama 或 vLLM 跑本地模型。
一键起飞:最短路径
两条路:云端用 sim.ai,或者马上在本地跑起来。
Cloud-hosted(托管)
直接访问 sim.ai,账号里开箱即用。
Self-hosted(自托管)
最轻量的一条命令:
1 | |
需要你的机器上已经安装并运行 Docker。
更标准的 Docker Compose:
1 | |
用本地模型跑:Ollama 与 vLLM
Ollama(GPU 或 CPU)
无需外部 API,先把模型拉到本地再跑工作流:
1 | |
模型下载完,访问 http://localhost:3000。追加更多模型:
1 | |
如果你在宿主机上跑 Ollama,而 Sim 在容器里,地址改成:
1 | |
Linux 场景可以用宿主机 IP,或在 compose 文件里加入 extra_hosts: ["host.docker.internal:host-gateway"]。
vLLM
自托管 vLLM 的方式也很简单,设置环境变量即可:
1 | |
Dev Containers:在 VS Code 里一键重开到容器
如果你习惯用 VS Code 的 Dev Containers 或 Codespaces,有一套现成配置:
- 重开到容器后,可用项目内置命令:
sim-start同时跑应用与实时 Socket 服务- 或者分开跑:
sim-app(Next.js,3000 端口),sim-sockets(Socket 服务,3002 端口)
- 自动安装依赖与执行迁移
- 内置命令包括:
sim-migrate推送 schema、sim-generate生成迁移、pgc连接数据库
手动本地开发:从零到能跑
手动模式需要:Bun、Node.js v20+、PostgreSQL 12+(带 pgvector)
- 拉代码并安装依赖
1 | |
- 启动本地带 pgvector 的数据库(Docker 示例)
1 | |
- 配置环境变量(复制示例文件并编辑)
1 | |
- 迁移数据库 schema
1 | |
- 启动开发服务
1 | |
Copilot API Keys:自托管也能用内置 Copilot
自托管时想在画布里使用 Copilot:
- 访问 sim.ai → Settings → Copilot,生成 Copilot API key
- 在本地
.env里设置COPILOT_API_KEY
环境变量速览
核心环境变量如下(更全见 apps/sim/.env.example 或 apps/sim/lib/core/config/env.ts):
DATABASE_URL:PostgreSQL 连接串,需 pgvectorBETTER_AUTH_SECRET:认证 secret(可用openssl rand -hex 32生成)BETTER_AUTH_URL:应用地址,例如http://localhost:3000NEXT_PUBLIC_APP_URL:同上,前端使用ENCRYPTION_KEY:用于加密环境变量INTERNAL_API_SECRET:用于加密内部 API 路由API_ENCRYPTION_KEY:用于加密 API KeyCOPILOT_API_KEY:来自 sim.ai 的 Copilot Key,非必须
常见问题
- Ollama 模型在 Docker 下下拉不到或下拉后选不到:在容器里使用
host.docker.internal替代localhost指到宿主机服务。 - 数据库迁移报错:确保 pgvector 已装,等数据库健康后再跑迁移。
- 端���冲突:默认使用 3000、3002、5432,更换端口示例:
1 | |
技术栈一览
- Framework:Next.js App Router
- Runtime:Bun
- 数据库:PostgreSQL + pgvector,ORM 用 Drizzle
- 认证:Better Auth
- UI:Shadcn、Tailwind CSS
- 状态管理:Zustand
- 工作流画布:ReactFlow
- 文档:Fumadocs
- Monorepo:Turborepo
- 实时能力:Socket.io
- 后台任务:Trigger.dev
- 远程代码执行:E2B
包与 SDK
仓库的 packages 列出了常用包:
- 内部包:
@sim/tsconfig、@sim/db、@sim/logger、@sim/testing - 已发布包:
- CLI:
simstudio(本地通过 Docker 跑 Sim) - TypeScript SDK:
simstudio-ts-sdk(用于工作流执行) - Python SDK:
simstudio-sdk(用于工作流执行)
- CLI:
用起来的感觉
- 画布直觉:流程设计像拼图,连接后立刻运行,直观调试。
- Copilot 辅助:生成节点、修���、补参数,把“搭流程”的摩擦降到最低。
- 文档即平台:从 Docker 化部署到 Dev Containers,一条龙覆盖了个人试验和团队协作。
- 模型来源自由:云端服务、Ollama 本地模型、vLLM 自托管,都能接起来。
- 数据可落地:pgvector 支撑检索,RAG 场景能快速搭,业务内容可控。
适用场景
- 小团队快速验证 Agent 流程,几小时内跑出能互动的 MVP
- 内部知识问答或流程自动化,用向量检索把企业文档喂给 Agent
- 线上稳定跑,线下低成本迭代:云端托管配合本地模型双持
- 想让非工程同学参与工作流搭建,用画布把抽象都可视化
结语
Sim 把“搭 Agent 的流程”做成了“低摩擦的产品体验”。它不试图包打天下,而是把关键路径打通:工作流画布、Copilot 迭代、向量检索、云端与本地模型、从开发到部署的全套环境。
如果你正在为 Agent 应用寻找那条“从想法到可运行”的最短路径,先跑一遍 npx simstudio,把画布搭起来,再把知识库接上。剩下的,就交给工作流。
更多信息与文档请直接查看仓库与官网:
- 仓库:simstudioai/sim
- 文档:docs.sim.ai
- 托管:sim.ai