Python 编程基础 — 基本语法、数据操作、脚本调试
RESTful API — CRUD API 搭建(Python / JS / .NET 均可)
Git 版本控制 — branch、Pull Request、rebase 解决 conflicts
AWS EC2 & Bedrock — 了解 EC2 配置和 Bedrock 模型推理
Azure ML — 了解 Azure AI 服务基础操作
Google Colab — 代码运行和环境配置
Python 3.10+ 环境
OpenAI API Key
AWS / Azure 账号
Google Colab 访问
Git + GitHub 账号
IDE 配置(VS Code + Python 插件)
虚拟环境管理(venv / conda)
API Key 安全管理(.env 文件)
配置本地开发环境
测试 OpenAI API 连通性
运行第一个 LLM 调用脚本
本地环境可正常调用 OpenAI API
GitHub 仓库已创建并推送初始代码
GenAI 全景图:LLM 产业链、API Provider 生态、开源 vs 闭源模型对比
AI Engineer vs ML Engineer vs Data Scientist — 角色区分和技术栈差异
LLM Ops 概念:模型选择 → 部署 → 监控 → 评估 → 优化的完整生命周期
动手调用 3 个不同 LLM Provider 的 API
对比同一个 Prompt 在 GPT-4o / Claude / DeepSeek / Qwen / Bedrock 上的输出差异
记录 latency、token 用量、cost 对比
GenAI Capstone Project 启动:定义你的 Intelligent Study Assistant (ISA) 项目
写 ISA 项目 proposal:目标用户、核心功能、选用的 LLM、预期 Phase 1 产出
课程结构详解:4 Phase、7 Project、评估方式
学习方法论:直播 + 录播 + Lab 自学 + P3 项目的节奏
ISA Capstone Project 详细说明和评分标准
学员自我介绍和背景分享
分组:按技术背景分配 P3 团队
确认每组的 ISA 方向
明确 12 周学习计划
加入 P3 团队
ISA 项目 GitHub 仓库创建
Transformer 架构:Self-Attention、Multi-Head Attention、Positional Encoding
Input Embeddings:Token → Vector 的过程、词向量空间可视化
API 实操:OpenAI Chat Completions API 参数详解 — temperature、top_p、max_tokens、stop sequences
可视化 Attention Matrix — 输入一段文本,观察 token 间的注意力分布
API 参数调优实验:固定 Prompt,调整 temperature (0 → 2.0),对比输出差异
Token 计数和成本估算脚本
用 Python 实现一个简单的 LLM API 封装类
支持:模型切换、重试逻辑、Token 计数、Cost tracking
这个封装类会在后续项目中复用
AI 应用的四大构建模式:
1. Prompting — 直接提示词工程
2. RAG — 检索增强生成
3. Fine-Tuning — 模型微调
4. Agents — 自主决策
何时用哪种?决策矩阵:数据量 × 任务复杂度 × 成本 × 延迟
同一个任务(客服 Q&A),分别用四种模式的最简版本实现
对比:准确率、延迟、成本、开发时间
Define Success Criteria — 设定 AI 应用的评估指标
为 ISA 项目选择最合适的构建模式,写出技术选型文档
包含:为什么选这个模式、替代方案的 trade-off、预期 metrics
Context Engineering 定义:不只是写 Prompt,而是设计整个 LLM 信息输入架构。Gartner 2026 数据显示 57% 的 Agent 失败源于上下文设计失败
四层上下文设计:System Context(角色/规则)→ Retrieved Context(RAG/搜索结果)→ Memory Context(对话历史/长期记忆)→ Task Context(当前任务指令)
Prompt Engineering 作为子集:Clear instructions、Structured output、Few-shot examples、Chain-of-Thought — 这些技术在四层架构中各归其位
Context Window 管理:1M+ token 时代的信息筛选和优先级策略,什么该放、什么该丢、什么动态加载
4 层上下文架构设计实验:
给同一个任务,对比纯 Prompt vs 完整 Context Engineering 的效果差异
量化对比:准确率、一致性、幻觉率
记录每一层上下文的具体内容和设计决策
为 ISA 项目设计完整的 Context Engineering 方案:System Prompt + 检索策略 + 记忆管理 + 输出控制
提交 Context 版本历史(至少 3 个版本 + 改进原因和量化效果)
Vibe Coding 工作流:用 AI 编程工具加速开发,不是替代编程能力
三大工具对比:Cursor(inline edit + composer)vs Claude Code(terminal agent + MCP)vs GitHub Copilot(autocomplete + chat)
项目级 AI 配置:CLAUDE.md / .cursorrules / Copilot instructions — 告诉 AI 你的项目规范和约束
Context Engineering 在 Vibe Coding 中的应用:怎么给 AI 编程工具提供最优上下文
常见陷阱:过度依赖 AI 生成、不 review 代码、忽略测试
用 Cursor + Claude Code 分别完成同一个 Python 项目搭建
配置项目级 AI 指令文件(.cursorrules / CLAUDE.md)
对比两个工具的开发效率和代码质量
Project: Context-Driven App
用 Vibe Coding 构建一个 Context Engineering 驱动的 AI 应用
要求:有 System Context 设计、Few-shot examples、输出格式控制
用 Cursor 或 Claude Code 开发,提交 AI 交互记录