Part 3 — Prompt 进阶 + 第一个 GPT

L26 - L46 · 21 节课
21 节课详细介绍
L26VIDEO

Prompting

60min

🎯 这节课解决什么问题

基础 prompt 你已经会写了——R-T-C-E 框架、给例子、加约束。但遇到复杂推理任务(数学题、多步决策、代码调试)基础写法不够用。这节课给你 4 个进阶技巧:CoT、Self-Consistency、ToT、ReAct,每个都有明确的适用场景。

📖 你将学到

  • Chain-of-Thought — "请一步一步分析" 这一句话为什么能让数学题准确率翻倍
  • Self-Consistency — 采样 5 次投票,贵但稳,适合高精度场景
  • Tree-of-Thought — 多候选 + 自评价 + 搜索,适合数独、24 点、路径规划
  • ReAct — Thought + Action + Observation 循环,这就是 Agent 的骨架
  • 技巧选型决策树 — 什么场景用哪个,别滥用

💡 适合谁

基础 prompt 已经熟练、想把 LLM 用在需要"推理"的任务上的工程师。

📦 课程包含

  • 60 分钟视频覆盖 4 大进阶技巧
  • 每个技巧的"有 vs 无" prompt 对比
  • 真实案例:CoT 在 GSM8K 数学题上的准确率提升数据
  • 衔接 L27 chain-of-thought Lab 动手练习

✅ 学完能做什么

你能把需要多步推理的复杂任务从"LLM 做不来"变成"LLM 能做但要加 CoT"。面对任何新任务你都知道该用 4 种技巧里的哪一个,不用瞎试。

L27🧪 LAB

Lab: Chain-of-Thought

30min

🎯 这节课解决什么问题

CoT 听起来很玄——"让 LLM 一步一步想"。但它到底能把准确率从多少提到多少?你亲眼看一次才有真实感受。这个 Lab 给你一道数学题,分别用 "直接问" 和 "加 CoT" 两种 prompt 跑,准确率差异让你服气。

📖 你将学到

  • 直接问 vs CoT 对比 — 同一道数学题两种 prompt 的输出完全不同
  • "请一步一步分析" 的魔法短语 — 为什么这一句话的效果能超过很多复杂技巧
  • CoT 的局限 — 太简单的任务不需要 CoT,反而会浪费 token

💡 适合谁

想把 CoT 从"听过"变成"会用"的工程师。做完这个 Lab 你永远不会忘记 "step-by-step" 是最便宜最好用的 prompt 技巧。

📦 课程包含

  • 1 个浏览器内互动 Lab(Prompt Lab: chain-of-thought)
  • 5 个数学题 / 逻辑题对比场景
  • CoT vs 直接问的准确率实时统计
  • 约 30 分钟动手时间

✅ 学完能做什么

下次遇到任何需要推理的任务,你会自动加上 "请一步一步分析" 这一句话。这是你整个 AI Engineer 生涯里用得最多的一个技巧。

L28VIDEO

Fine-Tuning

60min

🎯 这节课解决什么问题

"为什么不 Fine-tune 一个自己的 GPT?" 是每个新入门的人都会问的问题。但 99% 的情况 Fine-tune 是错的选择——贵、慢、容易废。这节课给你一个明确的决策树:Prompt Engineering → RAG → Fine-tune,什么时候该跳到下一级。

📖 你将学到

  • 三种方案成本对比 — Prompt(小时级开发)vs RAG(天级)vs Fine-tune(周级 + 训练费)
  • 决策树 — 问题能改 prompt 解决吗?不行就上 RAG,还不行才 Fine-tune,反着来就是烧钱
  • LoRA / QLoRA 低成本微调 — 为什么消费级 GPU 也能微调 7B 模型,内存占用降 10 倍以上
  • Fine-tune 该做什么不该做什么 — 学行为模式(风格 / 格式)可以,灌新知识不要用 Fine-tune

💡 适合谁

老板跟你说"我们 Fine-tune 一个模型吧"的工程师。这节课帮你判断这个想法是不是对的,以及如何有礼貌地说服老板改用 RAG。

📦 课程包含

  • 60 分钟视频 + 完整决策树
  • 三种方案的真实成本估算
  • LoRA / QLoRA 技术原理(无公式)
  • 衔接 L29 fine-tuning-qlora Lab 实操

✅ 学完能做什么

面对任何"要不要 Fine-tune"的需求,你能在 5 分钟内给出判断 + 替代方案。这会在公司里直接节省几万到几十万的算力费。

L29🧪 LAB

Lab: Fine-Tuning with LoRA / QLoRA

30min

🎯 这节课解决什么问题

Full Fine-tuning 一个 7B 模型需要 24GB+ GPU,大部分人没有。LoRA 用一个巧妙的技巧绕开这个限制:冻结原模型、只训一个小 adapter 矩阵。QLoRA 更狠,先把原模型 4-bit 量化再训 adapter。这个 Lab 让你亲手跑一次 QLoRA 微调流程。

📖 你将学到

  • LoRA 原理 — 在原权重矩阵旁加一个 low-rank 分解的 adapter,训练时只调 adapter
  • QLoRA 更省 — 16-bit 权重压到 4-bit,24GB 显存能微调 65B 的 Llama 2
  • 训练一个小数据集 — 用 10-50 条样本做 instruction tuning,观察模型行为变化
  • 评估 adapter 效果 — 怎么知道微调有没有用

💡 适合谁

手头有一点 GPU 资源(或者想用 Colab / Modal 免费 GPU)想第一次试 Fine-tune 的工程师。或者想在简历上写"做过 LLM 微调"的人。

📦 课程包含

  • 1 个浏览器内互动 Lab(LLM Lab: fine-tuning-qlora)
  • HuggingFace TRL + PEFT 完整代码
  • 训练数据样本 + 评估脚本
  • 约 30 分钟动手时间

✅ 学完能做什么

你能在 Colab / Modal 上跑通一个 7B 模型的 QLoRA 微调,能判断一个业务场景值不值得微调,能在面试时自信地说"我做过 LoRA 微调"。

L30VIDEO

RAG 1 — Core Components

60min

🎯 这节课解决什么问题

RAG 这个词你听了 10 遍了,但真去搭一个你不知道从哪开始——Loader?Splitter?Embedder?每个都是什么?哪个必须要、哪个可以跳过?这节课把 RAG 拆成 6 个核心组件,每个组件讲清楚"做什么 + 选型 + 常见坑"。

📖 你将学到

  • 6 大核心组件 — Loader → Splitter → Embedder → Vector Store → Retriever → Prompt Assembly,少一个都不行
  • 每个组件的选型矩阵 — Loader: LlamaParse / Unstructured / PyPDF;Splitter: Recursive / Semantic;Embedder: OpenAI / BGE / Cohere;Store: Pinecone / Qdrant / Chroma
  • Chunk 大小的权衡 — 太小语义丢,太大注意力稀释,500-800 字 + 100-200 字 overlap 是起步推荐
  • 最小 Prompt 组装模板 — 怎么把 chunks + question 拼成 LLM 能用的 prompt

💡 适合谁

听过 RAG 但没搭过的工程师。这节课是你从 0 到 1 的基础,后面 15 节 RAG 相关课都建立在这 6 个组件上。

📦 课程包含

  • 60 分钟视频 + 完整组件图
  • 每个组件的工具选型矩阵
  • Chunk 策略的真实案例对比
  • 衔接 L31 rag-feature-pipeline Lab 动手搭

✅ 学完能做什么

你能画出一个完整的 RAG 系统架构图并解释每个组件的作用,能独立做选型决策。后面 L37 Project 2 "RAG from Scratch" 的基础就是这节课。

L31🧪 LAB

Lab: RAG Feature Pipeline

30min

🎯 这节课解决什么问题

上一节你学了 RAG 的 6 个组件,这个 Lab 让你动手搭前 4 个——Loader / Splitter / Embedder / Vector Store。这一步叫 "Ingestion Pipeline",是所有 RAG 系统的离线起点。跑完你会发现原来 RAG 的 Ingestion 没那么神秘。

📖 你将学到

  • Loader 实操 — 用 LlamaParse 或 PyPDF 把一份 PDF 变成纯文本
  • Splitter 实操 — 用 LangChain RecursiveCharacterTextSplitter 切 chunk,观察切分效果
  • Embedder + Store 组合 — OpenAI embedding → ChromaDB,一个完整的 ingest 流程

💡 适合谁

想第一次亲手搭 RAG ingestion 的工程师。做完这个你对 RAG 的前半段就有完整的信心。

📦 课程包含

  • 1 个浏览器内互动 Lab(LLM Lab: rag-feature-pipeline)
  • 3 份真实 PDF 样本
  • 完整可运行的 ingestion Python 代码
  • 约 30 分钟动手时间

✅ 学完能做什么

你能独立写一个从 PDF 到 ChromaDB 的 ingestion 脚本,这是所有 RAG 系统的前半段。配上下一节的 Query Pipeline,你就能搭完整的 RAG 原型。

L32VIDEO

RAG 2 — Retrieval Strategies

60min

🎯 这节课解决什么问题

Naive RAG = 纯向量相似度 top-K 检索——够跑 demo 但离生产级差一截。这节课讲 4 个进阶检索策略:Hybrid Search、MMR、Re-ranking、Query Rewriting。每个都解决 Naive RAG 的一个真实痛点。

📖 你将学到

  • Hybrid Search — 向量 + BM25 加权融合,兼顾语义和关键词,解决"关键词丢失"问题
  • MMR — Maximal Marginal Relevance,既要相关又要多样,避免 top-5 全是重复内容
  • Re-ranking — 用 Cohere Rerank 做二次精排,top-K 精度提升 20%+
  • Query Rewriting — LLM 先改写用户模糊问题再检索,解决"这个怎么弄"这类无信息查询

💡 适合谁

已经搭过 Naive RAG 发现"检索不准"的工程师。这节课是你从 "能用" 到 "好用" 的关键一步。

📦 课程包含

  • 60 分钟视频 + 4 大策略详解
  • Naive vs Advanced 检索效果对比
  • 两阶段检索(粗召回 + 精排)架构图
  • 衔接 L33 rag-inference-pipeline Lab 实测

✅ 学完能做什么

你能为任何 Naive RAG 系统加上 Hybrid Search + Rerank,把检索质量拉到生产级。这是很多公司愿意付钱请 AI Engineer 做的事。

L33🧪 LAB

Lab: RAG Inference Pipeline

30min

🎯 这节课解决什么问题

上一节讲了 4 个进阶检索策略,这个 Lab 让你在浏览器里亲手对比它们的效果。同一个问题用 Similarity / MMR / Hybrid / Rerank 四种策略跑,top-5 结果有什么不同——一次看清楚。

📖 你将学到

  • 检索策略对比面板 — 4 种策略同屏显示 top-5 结果
  • MMR 多样性 — 看 top-5 从 "全是同一段落的邻居" 到 "覆盖不同主题"
  • Rerank 精度提升 — 粗召回 top-50 → 精排 top-5,准确率肉眼可见地提升

💡 适合谁

做 RAG 检索质量优化的工程师。这个 Lab 胜过读 10 篇论文。

📦 课程包含

  • 1 个浏览器内互动 Lab(LLM Lab: rag-inference-pipeline)
  • 4 种检索策略同屏对比
  • 真实文档集 + 3 个测试问题
  • 约 30 分钟动手时间

✅ 学完能做什么

你能凭直觉判断一个 RAG 系统"检索不准"的原因是在哪一步——向量召回低?BM25 缺了?没 rerank?每个问题都有对应的修复方向。

L34VIDEO

Agents

60min

🎯 这节课解决什么问题

"Agent" 这个词在 2025-2026 被用滥了,每个产品都自称 Agent。但真正能落地的 Agent 形态就那么几种:Function Calling / MCP Server / OpenAI Assistant API / LangGraph。这节课把它们从稳定性 / 开发成本 / 代表产品三个维度对比清楚,你就知道该选哪个。

📖 你将学到

  • Function Calling 基础 — 最稳定的 Agent 基础设施,OpenAI / Claude / Gemini 都支持
  • MCP Server — Anthropic 2024 提出的工具标准化协议,Claude Desktop / Cursor 都已支持
  • Claude Skills — 可复用工作流打包,适合团队协作
  • 5 种 Agent 形态对比 — 稳定性 + 开发成本 + 代表产品

💡 适合谁

听到 "我们要做个 AI Agent" 想认真做方案的工程师。或者想搞懂 MCP 为什么是 2025 最重要的协议的人。

📦 课程包含

  • 60 分钟视频覆盖 5 种 Agent 形态
  • Function Calling 完整代码示例
  • MCP Server 架构解释 + 生态现状
  • 衔接 L35 ai-agent-patterns Lab 动手

✅ 学完能做什么

面对任何 Agent 需求你能在 10 分钟内给出选型方案。你会知道 MCP 不只是"另一个协议",是类似 LSP 之于 IDE 的生态基础设施。

L35🧪 LAB

Lab: AI Agent Patterns

30min

🎯 这节课解决什么问题

上一节讲了 5 种 Agent 形态,这个 Lab 让你亲手实现一个最小的 ReAct Agent——LLM + 3 个工具 + Thought/Action/Observation 循环。跑一次你就会发现 "Agent 到底是怎么工作的"——不是魔法,是一个清晰的循环。

📖 你将学到

  • Tool Schema 定义 — 用 JSON Schema 告诉 LLM 有哪些工具可用
  • ReAct 循环 — Thought → Action → Observation 的 Python 实现
  • 终止条件 — 什么时候 Agent 该停下来,怎么避免死循环

💡 适合谁

想从 "Agent 用户" 变成 "Agent 开发者" 的工程师。做完这个 Lab 你以后看任何 Agent 框架(LangGraph / CrewAI)都不会怯场。

📦 课程包含

  • 1 个浏览器内互动 Lab(LLM Lab: ai-agent-patterns)
  • 最小 ReAct Agent 的完整 Python 代码
  • 3 个可用工具(搜索 / 计算器 / 查询)
  • 约 30 分钟动手时间

✅ 学完能做什么

你能从零写一个带 3 个工具的 Agent,不依赖 LangChain / CrewAI。这是理解所有 Agent 框架的底座。

L36VIDEO

Benefits and When to Use

60min

🎯 这节课解决什么问题

"把 LLM 上进来" 是很多公司的口号,但 LLM 不是万能的。选错场景上 LLM 是 AI Engineer 最贵的错误——不只是钱,还有产品信誉和监管风险。这节课给你 LLM 的"甜蜜区" vs "禁区" 清单,让你在老板问 "这个需求能用 AI 吗" 时能理性回答。

📖 你将学到

  • LLM 甜蜜区 — 非结构化文本处理、多轮对话、生成任务、模糊查询
  • LLM 禁区 — 精确计算、实时低延迟、100% 确定性、严监管、海量分类
  • 混合架构 — 90% 简单任务用规则 / 小 BERT,10% 复杂场景才上 LLM,降低 10 倍成本
  • 电商审核真实案例 — 怎么做到比纯 LLM 便宜 40 倍还更准

💡 适合谁

被要求 "把 LLM 接进业务" 的工程师。这节课能帮你识别哪些需求真的适合 LLM,哪些其实 regex 就够。

📦 课程包含

  • 60 分钟视频 + LLM 场景决策树
  • 甜蜜区 / 禁区 清单 + 真实案例
  • 混合架构的分层策略图

✅ 学完能做什么

面对任何 "我们来上 AI 吧" 的需求你能在 5 分钟内判断可行性,给出 "该上 LLM" 或 "别上 LLM" 的理由。这直接影响公司是不是要烧几十万的算力费。

L37INFORMATION

Define Your Success Criteria

60min

🎯 这节课解决什么问题

做 AI 项目最容易翻车的不是技术,是"没定义成功是什么"。模型跑出来看着还行 → 上线 → 用户吐槽 → 才发现评估维度不全。这节课给你一个三层评估体系,从模型层到产品层到业务层,避免"感觉还行就上线"。

📖 你将学到

  • 三层评估 — 模型层(Accuracy / F1 / Ragas)+ 产品层(CSAT / 完成率)+ 业务层(ROI / 成本节省)
  • 模型层指标 — Faithfulness / Answer Relevance / Context Precision / Hallucination Rate,Ragas 封装好
  • 产品层指标 — 为什么模型跑分 95% 还是用户不爽
  • 起步 5 指标套装 — Task Completion + Latency + Cost + 用户反馈 + Hallucination Rate,5 个指标铺一个 dashboard

💡 适合谁

要对自己的 AI 项目对老板 / 用户 / 投资人负责的人。没指标就没法迭代,没法迭代就只能永远"感觉还行"。

📦 课程包含

  • 60 分钟阅读 + 三层评估体系
  • RAG 特有的 Faithfulness 指标讲解
  • 起步 5 指标 dashboard 模板
  • 衔接 L72 llm-evaluation Lab 实操

✅ 学完能做什么

你能为任何 AI 项目定义 "成功是什么",能说服老板花时间建评估体系(而不是直接上线)。这是你从"实验者"变成"工程师"的分水岭。

L38VIDEO

Prompt Engineering: Best Practices

90min

🎯 这节课解决什么问题

L07 给你讲了 R-T-C-E 框架,这节课把框架升级成 6 条工程化准则——每一条都能解决一类真实生产 prompt 的问题。这不是"新手技巧集合",是从几百个生产级 prompt 里总结出来的铁律。

📖 你将学到

  • 准则 1 角色 + 任务 — 开头写清"你是谁、做什么",不让 LLM 猜
  • 准则 2 Few-shot 例子 — 比任何文字解释都管用,尤其是格式化输出
  • 准则 3 分隔符 — 防止 Prompt Injection,用 <<< ... >>> 包裹用户输入
  • 准则 4 结构化输出 — JSON Mode / Structured Outputs,不再用正则 parse 自然语言
  • 准则 5 "先想后答" — 显式要求 "先分析再给结论"
  • 准则 6 允许说"不知道" — 反直觉但最重要,对抗幻觉的第一道防线

💡 适合谁

已经会写基础 prompt、想写生产级 prompt 的技术从业者。这节课的准则你会反复用 10 年。

📦 课程包含

  • 90 分钟视频 + 6 大准则详解
  • 每条准则的好 vs 差 prompt 对比
  • 一个组合应用了 6 条准则的模板
  • 衔接 L39 / L40 两个动手 Lab

✅ 学完能做什么

你写的每一个生产 prompt 都会自动套用这 6 条准则,不会再犯 "LLM 输出 parse 不了" / "被 injection 攻击" / "AI 编造事实不说不知道" 这些典型错误。

L39🧪 LAB

Lab: Few-Shot

30min

🎯 这节课解决什么问题

"给 LLM 3 个例子它就能学会新的输出格式"——这是 Few-shot Learning 的魔力。但例子怎么选?放多少个?放哪个位置?这个 Lab 让你对比 Zero-shot、1-shot、3-shot 的输出差异,10 分钟让你对 Few-shot 有直觉。

📖 你将学到

  • Zero-shot vs Few-shot 差异 — 同一个任务,给 vs 不给例子的输出完全不同
  • 例子质量 > 数量 — 3 个好例子胜过 10 个水例子
  • 例子的典型性 — 覆盖边界 case 比只给 "标准" 答案有用

💡 适合谁

做数据抽取 / 分类 / 格式化输出的工程师。Few-shot 是你每天都会用的技巧。

📦 课程包含

  • 1 个浏览器内互动 Lab(Prompt Lab: few-shot)
  • Zero-shot / 1-shot / 3-shot 对比面板
  • 5 个真实任务(分类 / 抽取 / 转写)
  • 约 30 分钟动手时间

✅ 学完能做什么

你能在任何格式化输出任务上立刻想到"加 3 个例子",不再纠结"为什么 LLM 输出格式不稳"。这是从 prompt 初级到中级的标志技巧。

L40🧪 LAB

Lab: JSON Schema

30min

🎯 这节课解决什么问题

LLM 输出 JSON 是后端最头疼的事——你让它输出 JSON,它给你 ```json{...}``` 带了 markdown fence;它给你 "OK, here is the JSON: {...}" 带了解释文字;或者 JSON 本身格式就错。这个 Lab 让你用 OpenAI Structured Outputs 强制输出合法 JSON,不用再写正则兜底。

📖 你将学到

  • JSON Schema 定义 — 怎么告诉 LLM "我要的 JSON 长这样"
  • OpenAI Structured Outputs — 保证返回的 JSON 100% 符合 schema,不用再 parse 兜底
  • 嵌套结构 — 数组 / 对象 / 枚举类型怎么定义

💡 适合谁

要把 LLM 接进后端 API 的工程师。下游需要稳定的 JSON,你这里不 parse 错误就谢天谢地——这节 Lab 就是解决这个的。

📦 课程包含

  • 1 个浏览器内互动 Lab(Prompt Lab: json-schema)
  • 3 个从简单到复杂的 schema 定义
  • 普通 prompt vs Structured Outputs 对比
  • 约 30 分钟动手时间

✅ 学完能做什么

你能让 LLM 返回 100% 可 parse 的 JSON,后端代码不用写 10 行兜底逻辑。这直接让你的 LLM 应用可靠性跳一档。

L41VIDEO

Prompt Iteration through a UI

30min

🎯 这节课解决什么问题

直接在代码里改 prompt → 跑 → 看结果,一次迭代要 30 秒。用 Playground 可以压到 5 秒。这节课教你用 OpenAI / Claude / Google AI Studio 三大 Playground 做快速迭代,外加 temperature / top_p / max_tokens 这三个关键参数怎么调。

📖 你将学到

  • 三大 Playground 对比 — OpenAI(多模型对比)/ Claude Workbench(自动优化建议)/ Google AI Studio(免费 + Gemini 2.0)
  • temperature 的影响 — 0 = 确定性(数据抽取用)/ 0.7 = 默认 / 1.0+ = 创意
  • top_p 与 temperature 的区别 — 为什么一般不同时调两个
  • max_tokens 怎么估 — 设太小会截断,设太大浪费成本

💡 适合谁

每天都要写 prompt 的技术从业者。迭代速度从 30 秒到 5 秒,一天能多迭代 20 次。

📦 课程包含

  • 30 分钟视频覆盖三大 Playground 实操
  • 参数调优对不同任务的影响对比表
  • "从 Playground 到代码" 的复制流程
  • 衔接 L42 model-parameters Lab

✅ 学完能做什么

你能用 Playground 在 10 分钟内迭代出一个生产可用的 prompt,然后复制进代码立刻能跑。这个速度在做 prompt 调优时非常关键。

L42🧪 LAB

Lab: Model Parameters

30min

🎯 这节课解决什么问题

temperature / top_p / max_tokens 听起来很简单,但你可能没真正感受过它们的影响。这个 Lab 让你把同一个 prompt 在不同参数下跑几次,亲眼看到输出的稳定性 / 创意度 / 长度如何被参数精确控制。

📖 你将学到

  • Temperature 对比 — 0 / 0.3 / 0.7 / 1.0 四档同一个 prompt 跑 5 次,看输出一致性
  • top_p 采样 — 为什么 top_p 和 temperature 一般选一个调
  • max_tokens 溢出 — 故意设小让输出被截断,理解 finish_reason="length" 是什么

💡 适合谁

已经知道这些参数但没真正对比过的工程师。10 分钟让你对参数有精确的数字直觉。

📦 课程包含

  • 1 个浏览器内互动 Lab(Prompt Lab: model-parameters)
  • 4 档 temperature + 同一个 prompt 的输出对比
  • finish_reason 字段的真实 case 展示
  • 约 30 分钟动手时间

✅ 学完能做什么

面对任何 prompt 任务你能第一眼就给出 "这个用 temperature=0 / 这个用 0.7" 的判断。从此调参不再靠玄学,是有明确依据的工程决策。

L43LAB

Project — Build & Share Your First GPT in OpenAI GPT Store

120min

🎯 这节课解决什么问题

课程前 42 节课你学了 prompt / LLM / agent 基础。现在是时候交第一个作品了——在 OpenAI GPT Builder 里打造并发布你的第一个 GPT。不写代码、全程可视化配置、终点是一个 GPT Store 分享链接 + 3 个真实用户反馈。这是你以后面试时能拿出来的第一个"我做过"。

📖 你将学到

  • Step 1 选主题 — 从真实工作场景出发,3 句话能说清目标用户和边界
  • Step 2 配置 Instructions — 用 R-T-C-E 框架写 system prompt,控制在 1500 字以内
  • Step 3 上传 Knowledge — 精选 3-5 个相关文档做 knowledge base,精而不多
  • Step 4 发布与收集反馈 — 拿到 GPT Store 链接,发给 3 个真实用户,整理反馈

💡 适合谁

想在 4 周内有一个"真实上线"的 AI 作品,而不是只跑过 Jupyter Notebook 的人。面试时 "我发布过 GPT 到 GPT Store" 比 "我做过 Python tutorial" 有说服力得多。

📦 课程包含

  • 120 分钟项目指导视频
  • 4 个 Step 的详细操作流程(含截图)
  • 10 个好主题建议 + 10 个避坑的坏主题例子
  • 反馈收集模板

✅ 学完交付物

✅ 一个 GPT Store 分享链接
✅ 3 份用户真实反馈(截图 / 文字)
✅ 一份迭代总结(你根据反馈改了哪些 Instructions)
这是你整个课程的第一个可展示作品。

L44INFORMATION

ChatGPT Prompt Set

60min

🎯 这节课解决什么问题

Prompt Engineering 不是每次从零写——大部分日常任务有固定模板,你需要的是一个自己的 Prompt 库。这节课给你 5 大场景的 40+ 模板:写作、代码、数据、营销、学习,全部经过真实业务验证,可以直接复制使用。

📖 你将学到

  • 写作类模板 — 邮件改写 / 文案优化 / 长文总结
  • 代码类模板 — 代码解释 / 代码审查 / 单元测试生成
  • 数据类模板 — SQL 生成 / Excel 公式 / 数据分析
  • 营销类模板 — LinkedIn 帖子 / SEO 优化 / A/B 文案
  • 学习类模板 — 概念解释 / 测验生成 / 类比教学

💡 适合谁

每天都会用 AI 做重复任务的技术从业者。你现在可能每次都重写 prompt,这节课之后你会有一个自己的 prompt 库,开箱即用。

📦 课程包含

  • 60 分钟讲解 + 40+ 个可复制模板
  • 每个模板标注:用途 / 输入格式 / 预期输出
  • 自建 prompt 库的建议(Notion / Obsidian / Git repo)
  • 衔接 L45 business-writing Lab 动手练习

✅ 学完能做什么

你会有一份 40+ 个模板的起步 prompt 库,每次遇到重复任务直接查库不用重写。每天能省 30-60 分钟的 prompt 撰写时间。

L45🧪 LAB

Lab: Business Writing

30min

🎯 这节课解决什么问题

上一节给你 40+ 个模板,这个 Lab 让你用其中一个(Business Writing 商务写作)跑一次完整流程——改写一封真实的工作邮件,对比原版和工程化版的输出差异。10 分钟让你把模板用法变成肌肉记忆。

📖 你将学到

  • 模板怎么改 — 你拿到一个通用模板后怎么根据你的具体场景调整
  • 语气控制 — 正式 / 轻松 / 道歉 / 强势,一句话切换
  • 真实案例 — 一封"拖延交付的邮件"怎么改得专业又不失礼

💡 适合谁

每天要写英文 / 中文商务邮件的人。练习一次你就会把 AI 当成默认的邮件辅助工具。

📦 课程包含

  • 1 个浏览器内互动 Lab(Prompt Lab: business-writing)
  • 5 种真实邮件场景(道歉 / 跟进 / 拒绝 / 争取 / 感谢)
  • 模板库 + 可直接复制的 prompt
  • 约 30 分钟动手时间

✅ 学完能做什么

你能在 2 分钟内把任何工作邮件需求转成专业输出,不用再纠结"这样写会不会太生硬 / 太软"。这是每天都能省时间的技能。

L46INFORMATION

GenAI Toolbox

60min

🎯 这节课解决什么问题

AI 工具每周都在变——上周的 SOTA 这周就过时。你需要一份按场景分类的工具清单,而不是"哪个最强"的榜单。这节课给你 2026 年的主流 GenAI 工具箱,按对话 / 搜索 / 文档 / 代码 / 设计 / Agent 分类,外加个人生产力组合推荐。

📖 你将学到

  • 对话类 — ChatGPT / Claude / Gemini / Grok 各自的特色和适用场景
  • 搜索类 — Perplexity / Google AI Mode / You.com,带引用的调研利器
  • 文档类 — NotebookLM(上传 PDF 做问答、生成播客)/ Claude Projects
  • 代码类 — Cursor / Claude Code / Copilot / Windsurf 对比
  • 图像 / 视频 / 音频 / Agent — Midjourney / Runway / ElevenLabs / Replit Agent 等
  • 个人生产力最佳组合 — 月花费约 $60 的 5 件套推荐

💡 适合谁

每次在 X / 小红书看到新 AI 工具就想试试的人。这节课帮你从"工具收藏家"变成"工具使用者"——只用 3-5 个深度用好。

📦 课程包含

  • 60 分钟覆盖 30+ 工具
  • 按场景 + 按预算的选型矩阵
  • "不要用的工具" 反向清单
  • 个人生产力 5 件套组合推荐

✅ 学完能做什么

你会有一份适合自己工作的 5 件套工具组合,不再被"这个更强"的新闻动摇。深度用 5 个工具 >> 浅度用 20 个。