logo
LLM LabLearn by doing, not by memorizing

系统掌握 LLM 工程的 实战训练场

从基础概念、RAG、微调,到评估优化与生产部署,这里不是一组静态教程,而是一条可执行、可回放、可累积进度的 LLM Engineer 学习路径。

🧠
概念 + 实操结合
每个 Lab 既讲原理又有动手练习,学完就能用。
🧭
5 阶段学习路径
11 个 Lab 拆成 5 个层级,从入门到生产,路线清楚。
💬
AI 评估场景题
开放式场景题由 AI 实时评分,训练工程思维。
📖
对标 LLM Engineer 手册
内容体系对齐业界 LLM Engineer 能力模型。
你的学习概览
0%

已完成 0 / 13 个可用 Lab。 现在开始后,首页会逐步变成你的进度仪表盘。

0
进行中
10h
预计总时长
10
覆盖主题
113
练习步骤
推荐节奏

每次先做 1 个概念 Lab,再做 1 个场景题。这样能把"知道"更快变成"做过"。

2-3
每周建议 Lab
1
先从 Stage 1 开始
🧠
13
可用 LLM Labs
🪜
6
学习阶段
🔧
10
LLM 主题领域
🎯
0
已完成练习
零基础

Stage 0: 了解 AI 世界

0/2 已完成
体验

Stage 1: 动手体验 LLM

0/2 已完成
入门工程

Stage 2: 从用户到构建者

0/2 已完成
Data & RAG

Stage 3: 数据是一切的基础

0/2 已完成
Eval & RAG

Stage 4: 评估与 RAG 生产化

0/2 已完成
Fine-Tuning

Stage 5: 模型定制

0/3 已完成
Fine-Tuning

Stage 5: 模型定制

有了评估标准,才知道微调的方向——SFT、DPO 偏好对齐、推理优化。

3 个可用 Lab
3h 学习量
2 个场景题
阶段完成度0/3

这个阶段还没开始,建议按列表顺序一路往下做。

🎯 Fine-Tuning开始练习

监督微调——指令数据集与训练

掌握 Supervised Fine-Tuning (SFT) 的完整流程:从构建高质量 Instruction Dataset,到选择 LoRA/QLoRA 等参数高效微调技术,再到配置 Learning Rate、Batch Size 等训练超参数。本 Lab 带你从"用模型"进阶到"调模型"。

中级50-65 min101 个场景题
理解 SFT 的定义、目标以及它在 LLM Post-training 中的位置
掌握 Instruction Dataset 的构建流程:数据收集、过滤、去重、去污染、质量评估
SFTFine-TuningLoRAQLoRA
⚖️ Alignment开始练习

DPO 偏好对齐——让 LLM 更像你

SFT 能教 LLM 完成任务,但很难教它"什么是好答案"。偏好对齐(Preference Alignment)通过对比"好答案"和"坏答案"来微调模型的行为。本 Lab 从 RLHF 讲到 DPO,带你掌握让 LLM 输出更符合人类偏好的核心技术。

中级40-55 min81 个场景题
理解 SFT 的局限性以及为什么需要偏好对齐
掌握 Preference Dataset 的数据结构和构建方法
DPORLHFPreference AlignmentFine-Tuning
Optimization开始练习

推理优化——更快更省的 LLM 推理

深入理解 LLM 推理的性能瓶颈,掌握 KV Cache、Continuous Batching、Speculative Decoding 等核心优化技术,学会模型并行(Data/Pipeline/Tensor Parallelism)和 Quantization(GGUF、GPTQ、EXL2)的原理与实战。

高级45-60 min90 个场景题
理解 LLM 推理的三大性能指标:Latency、Throughput、Memory
掌握 KV Cache 原理及 Static KV Cache + torch.compile 优化
InferenceKV CacheQuantizationGGUF