JD 需求 vs 课程内容 — 逐项对照

基于 15 份 2026 真实 AI Engineer JD · 左边是市场要的 · 右边是我们教的
15
JD 样本
6
核心能力
92%
平均覆盖率
12
$150K+
目标年薪

#1 AI Agent 系统构建

出现频率 9/10 JD

JD 要求

构建 multi-step, tool-using agents,能自主完成复杂任务
熟悉 ReAct / Function Calling / Tool Use 架构模式
掌握至少一个 Agent SDK(OpenAI Agents SDK / Claude Agent SDK / Google ADK)
构建 Multi-Agent 系统 — 分层架构、监督模式、Handoff
实现 Agent Memory — 跨会话记忆、用户偏好保持
了解 A2A / MCP 协议,实现 Agent 工具集成和互操作
Agent Ops:Tracing、Evaluation、Guardrails、Human-in-the-loop

我们教的

W7.1 ReAct 框架 + Function Calling — 手写 Agent 循环,不依赖框架
W7.2 3 大 Agent SDK 对比 — 同一任务分别用 OpenAI / Claude / Google ADK 实现
W8.1 Multi-Agent + LangGraph — StateGraph、条件路由、Checkpointing
W8.2 Agent Memory (Mem0) — 三层记忆架构 + Graph Memory
W8.3 A2A Protocol — Agent Card + Task 委托 + MCP 组合使用
W9.1 MCP Server 构建 — TypeScript SDK + OAuth + 生产部署
W9.2 Agent Ops + Computer Use — Tracing + Eval + Guardrails + Claude Computer Use
P5-P6 2 个完整 Agent 项目可部署到生产
覆盖度
95%

#2 Context Engineering

出现频率 8/10 JD

JD 要求

设计 LLM 信息输入架构 — 不只是写 Prompt,而是整个上下文系统
四层上下文:System Context / Retrieved Context / Memory Context / Task Context
Context Window 管理 — 1M+ token 时代的信息筛选和优先级策略
Prompt 版本管理、A/B 测试、迭代优化流程
Structured Output — JSON Mode、Function Calling 格式控制

我们教的

W3.1 Context Engineering 专课 — 四层上下文设计 + 量化对比实验
W3.1 Context Window 管理策略 + 信息优先级设计
W3.2 Vibe Coding — Context Engineering 在 AI 编程工具中的应用
W2.1 API 参数调优 — temperature / top_p / max_tokens 实验
ISA 每个 Phase 提交 Context 版本历史 + 改进原因
覆盖度
90%

#3 RAG 系统架构 (含 GraphRAG)

出现频率 9/10 JD

JD 要求

构建 端到端 RAG pipeline — 从文档解析到生成回答
Vector DB 选型和优化(Pinecone / Chroma / Weaviate / pgvector)
Chunking 策略、Re-ranking、Hybrid Search(语义 + 关键词)
GraphRAG — 知识图谱 + RAG,处理多跳推理和实体关系
RAG 评估:Context Recall / Precision / Faithfulness / Relevancy
处理 PDF / 表格 / 图片 等非结构化数据

我们教的

W4.2 RAG from Scratch — 纯 Python + FAISS,每步手写,理解原理
W4.1 Embedding 模型对比 + Cosine Similarity + t-SNE 可视化
W5.1 Production RAG — PDF 解析 + Streamlit UI + Rate Limiting + Cost Tracking
W5.2 LangChain LCEL + Memory — 框架化 RAG 开发
W6.1 GraphRAG + 混合检索 — Neo4j + Vector + BM25 三路召回 + RRF 融合
W6.2 RAGAS 四指标评估 + Langfuse 可观测平台
P3-P5 3 个递进 RAG 项目:Scratch → Production → GraphRAG
覆盖度
95%

#4 LLM Ops 可观测性与监控

出现频率 7/10 JD

JD 要求

LLM Tracing — 每次调用的 Input / Output / Latency / Cost 全链路追踪
Evaluation — Offline / Online / Human Eval 三种评估模式
Prompt A/B 测试 — 不同版本的效果量化对比
Cost 监控 — Token 用量追踪、预算告警、Model Fallback
Hallucination 检测 + 质量 Metrics Dashboard

我们教的

W5.3 LangSmith Tracing — 接入 + Debugging + 定位 bottleneck
W6.2 RAGAS + Langfuse — 自动化评估 + 开源监控
W9.2 Agent Ops 三大支柱:Observability + Evaluation + Guardrails
W11.1 AI Eval Engineering — 完整 Eval Pipeline + Braintrust + DeepEval
W5.1 Cost Tracking — Token 计数 + 预算管理 + Rate Limiting
贯穿 每个项目都要求接入 LangSmith 监控
覆盖度
90%

#5 AI Evaluation & Safety

出现频率 8/10 JD

JD 要求

构建 Eval Pipeline — 自动化评估,集成到 CI/CD
Hallucination 检测 — Faithfulness 评分、Cross-reference 验证
Red-teaming — Jailbreak 测试、边界枚举、对抗性输入
Input/Output Guardrails — Prompt Injection 防御、PII 过滤、内容审核
合规意识:EU AI Act / NIST AI RMF 基本了解

我们教的

W11.1 AI Eval Engineering 专课 — Offline/Online/Human Eval 框架设计
W11.1 幻觉检测器实现 — 检查输出是否忠实于 Context
W11.2 Safety + Red-teaming 专课 — 10 种攻击手法测试 + 防御
W11.2 Guardrails 实操 — Guardrails AI + NeMo + PII 检测
W11.2 EU AI Act 开发者指南 — 对你的系统意味着什么
覆盖度
90%

#6 Open-Weight 模型 + Fine-Tuning

出现频率 6/10 JD

JD 要求

LoRA / QLoRA / PEFT 微调开源模型
训练数据准备 + 质量控制 pipeline
Model Routing — 按任务复杂度分发到不同模型(降本增效)
本地部署 Open-Weight 模型(vLLM / Ollama / TGI)
了解 DeepSeek / Qwen / Llama 4 等主流开源模型的适用场景

我们教的

W10.1 Open-Weight 模型格局 — DeepSeek / Qwen 3.5 / Llama 4 对比
W10.1 Model Routing — 简单走 DeepSeek,复杂走 Claude,自动切换
W10.1 vLLM 部署 + Ollama 本地推理 + 成本 break-even 计算
W10.2 QLoRA + Unsloth 微调 — 2x 速度、60% 省显存
W10.2 SDG 数据生成 + 质量过滤 + LLaMA-Factory GUI 微调
FT 完整微调项目 — 数据 → 训练 → 评估 → HuggingFace 发布
覆盖度
90%

我们没覆盖的 — Nice-to-Have(不影响核心竞争力)

通过互动 Lab / Learn 覆盖(非直播)

GCP Vertex AI / Azure OpenAIAzure Lab + AWS Lab 提供
Multimodal AI (Vision + Audio)Prompt Lab: multimodal-prompting
System Design for AILearn 章节 + 项目实战
Voice Agent (ElevenLabs / Vapi)Learn 章节介绍
AWS AI Practitioner 认证可搭配 JR 认证课

不覆盖(不属于 AI Engineer 核心)

Kubernetes / Docker ComposeDevOps 范畴
Data Engineering (Spark / Kafka)DE 岗位
传统 ML (XGBoost / Scikit-learn)DS 岗位
ML 论文阅读Research 岗位
Agile / Scrum 项目管理P3 中实践
结论:6 大核心能力直播覆盖 90%+,GCP/Multimodal/System Design 通过互动 Lab 和 Learn 章节补充。
真正不覆盖的只有 K8s、Data Engineering、传统 ML — 这些属于 DevOps / DE / DS 岗位范畴,不是 AI Engineer 核心要求。

JD 样本来源 (15 份)

OpenAI
AI Engineer
$200K-$350K
Anthropic
AI Engineer
$180K-$320K
Google
AI Platform Engineer
$170K-$300K
Meta
AI Infra Engineer
$180K-$330K
Amazon
AI/ML Engineer
$150K-$280K
Databricks
LLM Engineer
$160K-$290K
Scale AI
AI Engineer
$150K-$250K
Stripe
AI Product Engineer
$160K-$280K
Notion
AI Engineer
$140K-$250K
Vercel
AI SDK Engineer
$150K-$260K
Cursor
AI Engineer
$180K-$320K
Startup (YC)
Founding AI Eng
$130K-$200K+
Startup (Series B)
Senior AI Eng
$160K-$250K
Enterprise
AI Solutions Eng
$130K-$200K
Consulting
AI Consultant
$120K-$180K
Junior (0-2年): $100K-$150K
Mid (2-5年): $150K-$220K
Senior (5+年): $220K-$350K+
来源: levels.fyi, Glassdoor, LinkedIn 2026