chatgpt-on-wechat

2025-09-01

ai

我预见了所有悲伤,但我依然愿意前往。――《降临》

https://github.com/zhayujie/chatgpt-on-wechat

ChatGPT-on-WeChat:多模态智能体开源框架,打造属于你的AI聊天助手

在AI智能化浪潮席卷全球的今天,越来越多的开发者与企业渴望将大模型能力融入实际业务、产品和日常沟通场景。你是否希望在微信、公众号、企业微信、飞书、钉钉等平台轻松拥有一个支持多轮对话、语音、图片、多模型切换的AI聊天机器人?你是否想将ChatGPT、Claude、Gemini、通义千问、讯飞星火等顶尖模型“一网打尽”,甚至拥有自定义知识库和强大的Agent能力?那么,开源项目 zhayujie/chatgpt-on-wechat 就是你的不二之选!


一、项目简介

chatgpt-on-wechat(简称CoW) 是一个基于大模型的智能对话机器人及AI应用框架。它不仅支持开箱即用,还高度可扩展,适配多种主流平台和模型,致力于让每个人都能轻松拥有属于自己的AI助手、智能客服、企业智能体等多元应用。

  • 仓库地址https://github.com/zhayujie/chatgpt-on-wechat
  • 官网/文档https://link-ai.tech
  • 主要语言:Python 3.7+
  • 开源协议:MIT
  • 社区热度:38,000+ Star,9,400+ Fork,持续更新
  • 适配平台:网页、微信公众号、企业微信、飞书、钉钉等
  • 支持模型:ChatGPT(OpenAI)、Claude、Gemini、DeepSeek、Kimi、通义千问、讯飞星火、文心一言、GLM-4、LinkAI等

项目定位:既是一个可用的聊天机器人,也是一个高度可扩展的AI智能体平台!


二、核心功能与特色亮点

1. 多端部署,灵活适配

  • 支持网页、公众号、企业微信、飞书、钉钉等多种渠道,轻松满足个人、团队、企业的不同需求
  • 命令行、Docker、服务器本地等多种部署方式,覆盖各种环境

2. 多模型自由切换

  • 支持主流大模型:OpenAI(GPT-4系列)、Claude、Gemini、DeepSeek、Kimi、通义千问、讯飞星火、文心一言、GLM-4等
  • 支持LinkAI平台聚合,轻松接入多厂商模型和知识库

3. 多模态能力全面

  • 文本对话:支持私聊、群聊、上下文记忆,多轮会话
  • 语音识别与回复:支持openai-whisper、azure、baidu、google等多种语音模型,语音消息自动识别与回复
  • 图像能力:图片生成、识别、图生图,支持Dall-E-3、SD、Midjourney等模型

4. 丰富插件与智能体生态

  • 多角色切换、敏感词过滤、聊天/文档总结、联网搜索、Agent工具、智能体团队协作等内置插件
  • 支持自定义插件开发,可无限扩展功能
  • AgentMesh多智能体框架接入,支持浏览器、终端、文件系统、搜索引擎等工具调用,协作完成复杂任务

5. 知识库定制与企业智能体

  • 支持上传知识库,打造专属数字分身、智能客服、企业专家
  • 基于LinkAI平台实现,支持企业级定制应用

6. 全场景易用性

  • 一键安装脚本 + 项目管理脚本,部署运行极简
  • 支持Docker快速部署,适配Linux/Mac/Windows
  • 配置灵活,支持细粒度定制触发词、回复前缀、群聊/私聊管理、速率限制等

7. 企业服务与解决方案

  • LinkAI企业服务平台集成,支持智能客服、私域运营、效率助手等落地场景
  • 丰富行业案例,消费、健康、科技制造、教育等领域都有实际应用

三、安装与快速上手

1. 一键安装(推荐)

1
bash <(curl -sS https://cdn.link-ai.tech/code/cow/install.sh)

2. 手动安装

  • 克隆代码并安装依赖

    1
    2
    3
    4
    git clone https://github.com/zhayujie/chatgpt-on-wechat
    cd chatgpt-on-wechat
    pip3 install -r requirements.txt
    pip3 install -r requirements-optional.txt
  • 配置文件拷贝与修改

    1
    2
    cp config-template.json config.json
    # 按说明填写各项模型/渠道/API Key等参数

3. 启动与访问

  • 本地启动

    1
    2
    python3 app.py
    # 默认启动web服务,访问 http://localhost:9899/chat
  • 服务器/后台运行

    1
    nohup python3 app.py & tail -f nohup.out
  • Docker一键部署

    1
    2
    wget https://cdn.link-ai.tech/code/cow/docker-compose.yml
    sudo docker compose up -d

4. 配置与个性化

  • 配置支持多模型、多通道、多种触发词和回复策略
  • 可定制知识库、插件、Agent能力
  • 支持速率限制、上下文长度、欢迎语、个性化系统提示等

四、模型与通道支持一览

  • 模型方面:不仅支持OpenAI全系列,还能接入DeepSeek、Claude、Gemini、Kimi、通义千问、讯飞星火、文心一言、GLM-4、MiniMax等国内外主流大模型,满足多种业务需求
  • 通道方面:适配Web、Terminal、微信公众号、企业微信、钉钉、飞书等多渠道,涵盖个人、企业、团队场景

配置详见各模型/通道的详细参数说明,支持多种官方SDK或OpenAI兼容接入方式,灵活扩展。


五、典型应用场景

  • 个人AI助手:在微信、网页等场景,拥有智能聊天、语音、图片问答的超级助理
  • 企业智能客服:定制知识库与Agent,自动解决客户问题、智能筛选与回复
  • 团队智能体协作:多智能体协同解决复杂任务,自动化办公、项目管理
  • 行业应用落地:健康、教育、制造、科技、消费等领域的智能化升级
  • AI开发平台:自定义插件、知识库、Agent工具,打造专属AI应用

六、社区与生态

  • 超活跃社区,交流群、项目助手、企业服务一应俱全
  • 丰富的内置和第三方插件、相关项目(如AgentMesh、bot-on-anything)
  • 持续迭代更新,拥抱大模型和AI Agent的最新进展
  • 支持PR、Issue反馈,知识库与FAQ持续完善

七、常见问题与支持

  • 丰富的FAQ与开发文档:项目FAQ
  • 项目助手在线答疑:项目小助手
  • 详细的配置、接入、模型说明,助你快速排查和个性化扩展

八、结语

chatgpt-on-wechat 是一个真正面向未来的多模态AI智能体开源平台。不论你是AI极客、企业开发者、个人用户,还是希望提升业务智能化的团队,都能在这里找到最合适的解决方案。其多模型、多通道、多插件、多智能体的架构,为AI应用的落地和创新提供了无限可能。赶快 Star、Fork、试用 chatgpt-on-wechat,让你的微信、公众号、企业微信、飞书、钉钉都拥有属于你的AI超级助手!


项目地址https://github.com/zhayujie/chatgpt-on-wechat
项目文档https://docs.link-ai.tech/cow/quick-start
企业服务https://link-ai.tech