15

System Prompt 案例库

⏱️ 30分钟

System Prompt 案例库

这里收集了各大 AI 公司真实的 System Prompt 设计案例。通过学习这些案例,你可以了解行业最佳实践,并应用到自己的 AI Agent 开发中。


案例总览

公司产品核心特点学习价值
AnthropicClaude.ai, Claude CodeRLHF 安全设计、多角色系统Agent 安全边界设计
OpenAIGPT-4o, Agent ModeFunction Calling、消息通道工具调用规范
GoogleGemini CLI, Guided Learning项目约定、工作流设计代码 Agent 最佳实践
xAIGrok 3/4, PersonasPersona 系统、X 平台集成个性化角色设计
其他Perplexity, Kagi, Raycast搜索策略、格式规范垂直领域设计

Anthropic Claude

Claude.ai & Claude Code

核心设计理念:安全、有益、诚实

关键特点

  • 🛡️ RLHF 安全机制:Constitutional AI 设计
  • 📝 CLAUDE.md 配置:用户可定制 Agent 行为
  • ⚙️ 工具规范:详细的 Tool Use 约束
  • 🎭 多角色切换:通过 System Prompt 适配不同场景

适用场景

  • 代码助手开发
  • 长文档处理
  • 需要高安全性的应用

典型设计模式

You are Claude, made by Anthropic...
You can use tools to complete tasks...
NEVER do X without explicit permission...

📖 深度解析 Claude System Prompts →


OpenAI GPT

GPT-4o & Agent Mode

核心设计理念:通用、灵活、生态丰富

关键特点

  • 🔧 Function Calling:TypeScript Namespace 风格工具定义
  • 📡 消息通道系统:analysis / commentary / final 分离
  • 💰 金融活动限制:明确的 Allowed / Not Allowed 列表
  • 🔒 安全浏览规则:防止 Prompt Injection

适用场景

  • 浏览器自动化
  • 复杂多步任务
  • 需要工具调用的应用

典型设计模式

namespace tools {
	type function_name = (_: { param: string }) => any;
}

📖 深度解析 GPT System Prompts →


Google Gemini

Gemini CLI & Guided Learning

核心设计理念:项目约定优先、工作流驱动

关键特点

  • 📋 项目约定优先:NEVER assume,先分析现有代码
  • 🔄 五步工作流:Understand → Plan → Implement → Verify Tests → Verify Standards
  • 🎓 引导式学习:苏格拉底式教学法
  • 自验证循环:强调测试和标准检查

适用场景

  • 代码 Agent 开发
  • 教育类 AI 应用
  • 需要严格工作流的场景

典型设计模式

## Software Engineering Tasks
1. Understand: Think about the user's request...
2. Plan: Build a coherent plan...
3. Implement: Use available tools...
4. Verify (Tests): Run project tests...
5. Verify (Standards): Run linting...

📖 深度解析 Gemini System Prompts →


xAI Grok

Grok 3/4 & Persona 系统

核心设计理念:个性化、实时信息、X 平台集成

关键特点

  • 🎭 Persona 系统:多人格角色切换
  • 🔍 X 平台集成:原生支持 X 搜索和分析
  • 📊 渲染组件:专门的引用和格式化系统
  • 实时信息:无严格知识截止日期

可用 Personas

  • Companion(伴侣)
  • Unhinged Comedian(疯狂喜剧人)
  • Loyal Friend(忠实朋友)
  • Homework Helper(作业帮手)
  • Not a Doctor / Not a Therapist

适用场景

  • 社交媒体应用
  • 个性化聊天机器人
  • 需要实时信息的应用

典型设计模式

You are Grok, a [personality] chatbot...

## Style Rules:
- match the user's vulgarity
- always write in lowercase
- use abbreviations like rn ur bc

📖 深度解析 Grok System Prompts →


其他 AI 产品

Perplexity, Kagi, Raycast AI

三个产品各有特色

产品定位核心设计
PerplexityAI 搜索引擎实时搜索策略、语音交互规范
Kagi Assistant高级搜索助手最详细的格式规范系统
Raycast AI桌面效率工具用户系统偏好注入

学习价值

  • 🔍 Perplexity:如何设计搜索型 AI(每次追问都重新搜索)
  • 📝 Kagi:如何设计详细的输出格式规范
  • ⚙️ Raycast:如何集成用户系统偏好(语言、时区、单位)

📖 深度解析其他 AI 产品 System Prompts →


设计模式对比

从这些案例中,我们可以提炼出几种核心设计模式:

1. 身份定义模式

公司风格
Claude"You are Claude, made by Anthropic"
GPT"You are ChatGPT, a large language model..."
Grok"You are Grok, a [persona] chatbot..."

2. 工具定义模式

公司风格
OpenAITypeScript Namespace
AnthropicXML 格式 Tool Definition
GrokXML Function Call

3. 安全边界模式

公司方式
ClaudeNEVER / ALWAYS 关键词
GPTAllowed / Not Allowed 列表
GrokBoundaries (Never Do) 章节

如何应用这些案例

1. 选择参考模板

根据你的应用场景选择最合适的参考:

  • 代码助手 → 参考 Claude Code、Gemini CLI
  • 搜索应用 → 参考 Perplexity
  • 聊天机器人 → 参考 Grok Personas
  • 浏览器自动化 → 参考 GPT Agent Mode

2. 复用设计模式

直接复用已验证的设计模式:

SYSTEM_PROMPT = """
# Identity (参考 Claude)
You are [Your Agent Name], a [role] assistant.

# Tools (参考 OpenAI)
You have access to the following tools...

# Constraints (参考 Grok)
## Boundaries (Never Do):
- Never do X without permission
- Never share Y information

# Output (参考 Kagi)
Format your response with proper markdown...
"""

3. 迭代优化

  1. 从简单版本开始
  2. 观察 Agent 行为
  3. 逐步添加约束和示例
  4. 测试边缘情况
  5. 完善安全边界

延伸学习


💡 提示:这些案例都来自真实产品,展示了行业顶级公司的 System Prompt 设计思路。学习它们,然后创造属于你自己的设计风格。

📚 相关资源

❓ 常见问题

关于本章主题最常被搜索的问题,点击展开答案

Anthropic、OpenAI、Google 三家在 system prompt 风格上最大的差异是什么?

三家走三条路。Anthropic Claude 走 "安全优先":RLHF + Constitutional AI + 用 NEVER / ALWAYS 关键词划红线 + CLAUDE.md 让用户定制 Agent 行为。OpenAI GPT 走 "工具优先":TypeScript Namespace 定义工具、Function Calling、明确的 Allowed / Not Allowed 列表(如 banking transfers 禁止)。Google Gemini 走 "工作流优先":Understand → Plan → Implement → Verify Tests → Verify Standards 五步流程,强调 "NEVER assume",先看现有代码再动手。

xAI Grok 的 Persona 系统是怎么设计极端个性化的?

Grok 提供多套 persona 切换:Companion、Unhinged Comedian、Loyal Friend、Homework Helper、Not a Doctor / Not a Therapist。每个 persona 独立的语言风格规则 —— 比如 Loyal Friend 要求:lowercase 写作(除强调外)、用缩写如 rn / ur / bc、逗号少、不假设朋友性别、match 用户的脏话级别(用户骂才骂)。这种细粒度 style rules 是 "用 system prompt 创造一致人格" 的极端样本,也是社交类 AI 应用的参考模板。

Perplexity 怎么用 system prompt 保证搜索结果的时效性?

Perplexity 在 prompt 里明确写:每次用户追问 "that might also require fresh details" 都必须重新调 search_web,不能假设之前的搜索结果还能用;遇到任何不确定都重搜一次。原文是 "Always verify with a new search to ensure accuracy if there's any uncertainty." 这条规则把 "缓存即过时" 的判断权从工程层下放到 prompt 层 —— 模型每一轮都自己决定要不要重搜,比写硬规则更灵活。这是搜索型 AI 应用的核心设计模式。

OpenAI 的 TypeScript Namespace 和 Anthropic 的 XML 工具定义哪种更好?

没有绝对更好,看场景。OpenAI 的 `namespace file_search { type msearch = (_: { queries?: string[]; }) => any; }` 用 TS 类型给参数划约束,对前端工程师来说极其熟悉,IDE 都能补全。Anthropic 的 XML 格式(`<tool_definition>...</tool_definition>`)更适合需要嵌套结构和说明文本的场景。Grok 也用 XML Function Call。规则:JS / TS 团队优先 namespace,Python / 多语言混合环境优先 XML —— 但模型对两种格式都训练过,差距远小于 description 写得清不清楚的影响。

想给自己的 AI 应用挑一个参考 system prompt,该照哪家学?

按场景对号入座:代码助手抄 Claude Code + Gemini CLI(一个学输出极简,一个学验证流程);搜索类应用抄 Perplexity(学时效性策略);聊天机器人抄 Grok Persona(学个性化风格规则);浏览器自动化 / Agent Mode 抄 OpenAI(学工具定义和消息通道);高安全性企业应用抄 Claude(学 NEVER / ALWAYS + 安全边界)。复用模式时按 Identity → Tools → Constraints → Output 四段拼装,每段都有现成模板可直接改。