sim
一万年太久,只争朝夕。——毛泽东 Sim:把 AI Agent 工作流搭成一条“所见即所得”的生产线你是不是也有过这样的时刻:脑子里已经有一个能跑起来的 Agent 方案,结果工具搭建、数据接入、状态编排、模型联动、实时交互一大堆细节把你拽回现实。Sim 就是那个把想法迅速变成工作流的开源平台,让你几分钟内构建并部署 AI Agent 工作流,跑在云端或本地,拿起就用。 项目描述很克制:Open-source platform to build and deploy AI agent workflows。真正的亮点在于把复杂度藏到平台里,给你一个可视化的画布去连接 Agent、工具和模块,把“流程”做成了“积木”。 官网与托管版本:sim.ai 文档:docs.sim.ai 仓库地址:simstudioai/sim 技术栈:TypeScript、Next.js、Bun、PostgreSQL + pgvector、Drizzle ORM、Better Auth、Shadcn UI、Tailwind、Zustand、ReactFlow、Socket.io、Turbor...
beads
一年之计在于春,一日之计在于晨。——萧绎 Beads:给你的 AI Coding Agent 装上一块“长期记忆”如果你的日常开发已经离不开 Claude Code、Cursor、Windsurf 或自建 Agent,很快会遇到一个共同问题:任务一多、上下文一长、分支一复杂,Agent 的“短时记忆”撑不住了,计划和依赖也散落在文档或对话里,难以复用与审计。steveyegge/beads 给出的答案很直接:把任务、依赖、状态、审计轨迹都放进你的仓库,用 Git 管理,用结构化数据表达,用命令行驱动,让 Agent 能够稳定地跑长周期任务,还能和人类协作。 项目的自我定义非常克制:分布式、Git 驱动、面向 AI Agent 的图式 Issue 追踪器。它不是另一个“网页工单系统”,而是一套贴着代码活的工作记忆。 一句话核心 描述来自仓库:Distributed, git-backed graph issue tracker for AI agents 定位来自 README:为编码代理提供持久、结构化记忆,用依赖图替代散乱的 Markdown 计划,支撑长期任务...
vibe-kanban
荒废时间等于荒废生命。——川端康成 Vibe Kanban:把 AI Coding Agent 变成你真正的“协作开发队友”“Get 10X more out of Claude Code, Codex 或任何 coding agent。”这是 BloopAI/vibe-kanban 的一句话描述,也是这个项目的核心野心:让开发者在真实的工程节奏里,像��理工程团队一样,管理和编排多个 AI 编码代理,提升生产力、加速交付。 如果你已经在用 Claude Code、Gemini CLI、Amp 这类 coding agent,你大概很熟悉它们的“单点能力”:写函数、修 bug、生成测试、起个 dev server……但当工作进入“多任务、多代理、串并行协作、版本管理、代码评审、快速迭代”的真实场景时,光靠一个命令行工具就会显得捉襟见肘。 Vibe Kanban 做的,就是把这些代理“装进流程”,把你的开发节奏“装进一个看板”,并把所有和代码交互相关的动作(Git 仓库、分支、变更、工作树、开发脚本、编辑器启动、远程连接等)变成一套顺手的工具链。 它到底是什么?官方...
vue-pure-admin
在今天和明天之间,有一段很长的时间;趁你还有精神的时候,学习迅速办事。——歌德 来一篇“有点松弛又真有料”的前端模板解读:vue-pure-admin —— 一套全面基于 ESM + Vue3 + Vite + Element-Plus + TypeScript 编写的后台管理系统(兼容移动端)。仓库地址:pure-admin/vue-pure-admin,官方文档主页在这儿:纯净后台模板站点。 一句话(来自仓库 description):全面 ESM + Vue3 + Vite + Element-Plus + TypeScript 编写的一款后台管理系统(兼容移动端)。 先把“核心卖点”丢给你: 技术栈:Vue3 + Vite + Element Plus + TypeScript,全 ESM 状态管理:Pinia 样式生态:Tailwind CSS + SCSS 模板属性:is_template=true(可直接用作脚手架模板) 移动端兼容:自适应布局与 UI 选择适配移动端 许可证:MIT(放心用、好二开) 官方站点与文档:https://pur...
bilibili-API-collect
时间就是生命,无端的空耗别人的时间,其实无异于谋财害命的。——鲁迅 今天来点真材实料:把 B 站的接口资料“一网打尽”的开源文档库——bilibili-API-collect。仓库地址:SocialSisterYi/bilibili-API-collect,官网文档(GitHub Pages):https://socialsisteryi.github.io/bilibili-API-collect/ 一句话(来自仓库 description):哔哩哔哩-API收集整理【不断更新中….】 这玩意儿到底有啥用 它是面向开发者的“接口百科全书”:把 B 站的各类 API 使用方法集中整理,持续更新。 主题覆盖广(见仓库 Topics):api、bilibili、bilibili-api、bilibili-live、bilibili-login、bilibili-download、bilibili-danmaku、bilibili-comment、grpc、json。 自带文档站点:用 VuePress(仓库有 .vuepress 目录)把 Markdown 文档发布成...
feapder
少壮不努力,老大徒伤悲。——《汉乐府长歌行》 来点“实战派”的框架分享:feapder。它是一个上手简单、功能强大的 Python 爬虫框架,内置四类爬虫以应对不同场景,还支持断点续爬、监控报警、浏览器渲染、海量数据去重,更有配套的爬虫管理系统 feaplat 方便部署与调度。项目主页:Boris-code/feapder;官方文档与平台入口都在这儿:feapder.com 一句话摘自仓库 README 的官方介绍: feapder 是一款上手简单、功能强大的 Python 爬虫框架,内置 AirSpider、Spider、TaskSpider、BatchSpider 四种爬虫解决不同场景的需求 支持断点续爬、监控报警、浏览器渲染、海量数据去重等功能 爬虫管理系统 feaplat 为其提供方便的部署及调度 想象一下你的日常爬虫痛点 写一个小爬虫很容易,但一旦涉及断点续传、渲染页面、去重和告警,扩展成本马上上升 不同任务类型需要不同执行模型,有时想要“快跑”的轻量爬虫,有时又需要批量/任务队列式的稳态执行 数据量一大,“去重”就变成头等难题:Bloom...
awesome-chatgpt-prompts-zh
不要为已消尽之年华叹息,必须正视匆匆溜走的时光。——布莱希特 来点“真有用又好玩的”——今天我们聊一个超多人收藏的中文仓库:PlexPt/awesome-chatgpt-prompts-zh。 一句话版(来自仓库 description):ChatGPT 中文调教指南。各种场景使用指南。学习怎么让它听你的话。 这个仓库到底是什么 一个“中文场景化提示词合集”,帮你把 ChatGPT(或兼容模型)调教得更贴近你的具体需求。 内容以中文为主,覆盖多种场景,附有使用说明(见 README 与 USEAGE.md)。 许可证:MIT(放心学习、参考与二次使用;具体条款请看 LICENSE)。 官方主页(仓库提供):chat.aimakex.com 仓库主文件与结构(节选) README.md USEAGE.md prompts-zh.json prompts-zh-TW.json cat.md 以及目录 old、pic、question 默认分支:main Topics:chat-gpt、chatgpt、chatgpt3、chatgpt4、gpt 说明:上述文件...
Fay
正当利用时间!你要理解什么,不要舍近求远。——歌德 来点有意思的:把一个“数字人/大模型 Agent”真正接起来,用它干点正事儿。今天的主角是 Fay——一个面向数字人(2.5D、3D、移动、PC、网页)和大语言模型(OpenAI 兼容、DeepSeek)“连通业务系统”的 agent 框架。项目地址:xszyou/Fay 一句话(直接摘自仓库 description):fay 是一个帮助数字人(2.5d、3d、移动、pc、网页)或大语言模型(openai兼容、deepseek)连通业务系统的 agent 框架。 为什么它有看头 “连通业务系统”这几个字很扎心:不只是聊天,更是把 AI 接上真实业务、流程、API、设备。 “OpenAI 兼容、DeepSeek”关键字,意味着��手头已有的 LLM 生态(包括国产/自建)可以直接被纳入。 仓库主题里写了 Android、UE5、Unity3D、wav2lip……这说明它的应用场景不局限于纯文本,还可能触达实时渲染、动捕、口型同步、跨端展示等“数字人”常见链路。 代码主力是 Python,旁边配着...
WeKnora
永远不要把你今天可以做的事留到明天做。延宕是偷光阴的贼。抓住他吧!——狄更斯 嗨,今天来聊聊一个最近很“香”的开源项目:WeKnora。它来自腾讯,主页在这里:weknora.weixin.qq.com,GitHub 仓库在这里:Tencent/WeKnora。一句话版简介(摘自仓库 description + README):一个面向“深度文档理解 + 语义检索”的 LLM 框架,遵循 RAG(检索增强生成)范式,目标是把复杂、异构的文档,转化为“能被问、能被答、答得准”的知识。 先剧透几个关键词: RAG、向量索引、语义检索、重排序 Agent(ReACT)能力,可调用内置工具、MCP 工具、Web 搜索 多类型知识库:FAQ 与文档型,支持文件夹/URL 导入、标签管理、在线录入 Go 为主(后端),前端 TypeScript + Vue,配套 Python/Shell 工具脚本 Docker Compose、Helm 等多种部署方式(仓库含 docker-compose.yml 与 helm 目录) 官网与多语言 README:Engl...
exo
山川满目泪沾衣,富贵荣华能几时。不见只今汾水上,唯有年年秋雁飞。——唐李峤 exo:把家里的设备“凑成一台 AI 超算”的那一刻“Run your own AI cluster at home with everyday devices 📱💻🖥️⌚”没看错,exo 的目标就是把你手边的设备(Mac、Linux 主机等)拼成一个“会跑大模型”的分布式集群。项目由 exo labs 维护,许可证是 Apache-2.0。 仓库:exo-explore/exo Discord:Join Server X/Twitter:exolabs 这玩意儿到底能做什么官方 README 里说得很直白:exo 会把你的设备自动连接成一个 AI 集群,让你能跑“单机装不下”的模型,还带上了新潮的“Thunderbolt RDMA(日 0 支持)”来把设备间延迟拉到接近直连的水平。 特点(来自 README): 自动发现设备:启动 exo 的设备会彼此发现,基本不需要手工配置 RDMA over Thunderbolt 5:官方称可让设备间延迟减少高达 99% 拓扑...
