岁月不饶人,我亦未曾饶过岁月。――木心

system_prompts_leaks:揭秘顶级 AI 聊天机器人底层“灵魂”的开源项目

近年来,ChatGPT、Claude、Gemini 等大型语言模型(LLM)聊天机器人席卷全球,成为 AI 技术创新与落地的风向标。然而,绝大多数用户只看到它们“智慧”的表现,却很难深入了解这些智能体背后真正的“底层灵魂”——系统提示(System Prompts)。这些看不见的 prompt,决定了机器人如何理解世界、如何与用户对话、如何规避风险。想知道 ChatGPT、Claude、Gemini 等顶级 AI 的“思维底线”吗?你一定不能错过 asgeirtj/system_prompts_leaks 这个爆火的开源仓库!


一、项目简介

system_prompts_leaks 是由 asgeirtj 发起的开源项目,专注于收集、整理并公开各种流行 AI 聊天机器人(如 ChatGPT、Claude、Gemini 等)被“提取/泄露”出来的系统提示(System Prompts)。这些 prompt 通常被深藏在模型内部,是 LLM 能力、行为和安全的重要控制核心。

  • 项目地址https://github.com/asgeirtj/system_prompts_leaks
  • 描述:Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini
  • 主力标签:ai、chatgpt、claude、gemini、llm、prompt-engineering、prompt-injection、generative-ai
  • Star 数:超过 12,000(持续飙升)
  • Fork 数:2,375
  • 活跃度:每周更新,社区热议
  • 默认分支:main

二、什么是 System Prompt?为什么重要?

System Prompt(系统提示)是 LLM 在每次对话前注入的隐藏指令,它定义了模型的角色、行为准则、能力边界和安全策略。例如,ChatGPT 的 System Prompt 可能包含“你是一个有帮助的 AI 助手”、“请不要回答有害内容”、“请遵守 OpenAI 的安全政策”等。这些提示不仅决定了机器人的“性格”,还影响了它如何处理用户输入和各种攻击(如 prompt injection)。

在 AI 安全、对齐和 prompt engineering 领域,研究和分析这些系统提示有重要价值:

  • 揭示厂商对 AI 安全与伦理的设计思路
  • 帮助开发者理解 prompt injection、绕过与防护机制
  • 为自定义、微调 LLM 提供范例和灵感
  • 促进 AI 透明与可解释性

三、项目核心内容与结构

system_prompts_leaks 项目收录了从多个渠道“泄露”或“提取”出来的系统提示文本,覆盖主流厂商和模型,包括:

  • OpenAI(ChatGPT 系列)
  • Anthropic(Claude 系列)
  • Google DeepMind(Gemini 系列)
  • 其他主流 LLM

内容通常包括:

  • 真实 prompt 原文(英文为主)
  • prompt 注释与分析
  • 来源说明(如社区分享、白帽研究、公开漏洞等)
  • 按厂商、模型、时间分类整理

此外,项目还整理了 prompt injection 攻击样例、prompt 工程最佳实践、相关研究论文等附加资源,是 AI 安全与 prompt 工程领域的“学习宝库”。


四、典型内容举例(虚拟示意)

ChatGPT System Prompt(部分示意)

1
You are ChatGPT, a large language model trained by OpenAI. You follow the user's instructions carefully. As an AI developed by OpenAI, you must not engage in harmful, illegal, or unsafe behaviors. If a user asks you to perform such actions, politely refuse and explain why.

Claude System Prompt(部分示意)

1
You are Claude, a helpful AI developed by Anthropic. Your purpose is to assist users in a friendly and ethical manner. Do not answer requests that could lead to harm, violate privacy or legal regulations.

Gemini System Prompt(部分示意)

1
You are Gemini, an expert assistant by Google DeepMind. You must provide factual, unbiased and safe information. Avoid generating content that could be offensive, illegal or violate Google's policies.

这些 prompt 看起来简单,却暗藏诸多安全、对齐和行为控制的关键逻辑。


五、为何 system_prompts_leaks 能火爆全球?

  1. 真实揭示 AI 智能体“底层逻辑”
    让开发者和研究者第一次真正看清“大模型的脑海”,对 AI 安全和行为控制有极大启发。

  2. 促进 AI 安全与透明
    公开 prompt,有助于社区发现安全漏洞、攻击手段、改进防护。

  3. 助力 prompt 工程与创新
    为微调、自定义 LLM 的 prompt 设计提供范例和灵感。

  4. 推动学术和产业研究
    丰富的数据集和资源,为论文、技术创新、产品开发提供素材。


六、如何参与和使用?

  • 直接浏览和检索不同厂商的 System Prompt,学习其设计思路;
  • 贡献新的 prompt 泄露、提取结果,帮助完善数据集;
  • 学习和研究 prompt injection 攻击与防御;
  • 用于自定义 LLM、微调模型时参考范例;
  • 关注项目动态,参与社区讨论和安全研究。

七、结语

system_prompts_leaks 用最直接的方式,让 AI 领域的“黑箱”变得透明。无论你是开发者、AI 安全研究者、产品经理,还是普通用户,都能在这里看到全球顶级聊天机器人“灵魂深处”的秘密。赶快 Star、Fork、参与 system_prompts_leaks,为 AI 的透明、安全与创新贡献力量!


项目地址https://github.com/asgeirtj/system_prompts_leaks
适合群体:AI 开发者、研究人员、安全专家、产品团队、技术极客