从基础概念、RAG、微调,到评估优化与生产部署,这里不是一组静态教程,而是一条可执行、可回放、可累积进度的 LLM Engineer 学习路径。
已完成 0 / 13 个可用 Lab。 现在开始后,首页会逐步变成你的进度仪表盘。
每次先做 1 个概念 Lab,再做 1 个场景题。这样能把"知道"更快变成"做过"。
零基础起步,理解 AI/ML/DL 的关系和 Transformer 架构——搞清楚 ChatGPT 背后到底是什么。
这个阶段还没开始,建议按列表顺序一路往下做。
从零开始理解人工智能的三个层次:AI、机器学习、深度学习,以及它们如何一步步演进到今天的大语言模型(LLM)。完全零基础友好,用生活类比解释核心概念。
深入理解 Transformer 架构和 Attention 机制——这是 ChatGPT、Claude、Gemini 等所有现代 LLM 的核心基础。用直觉和类比代替数学公式,零基础也能看懂。
从用户角度感受 LLM 的强大和局限——用 Prompt、调 API、理解 Token 计费。
这个阶段还没开始,建议按列表顺序一路往下做。
动手体验 LLM 的强大能力——从了解 Hugging Face 生态,到用 Python 跑你的第一个模型,再到掌握 Prompt Engineering 基础。零代码经验也能跟上。
真正动手调用 LLM API——理解 Token 计费、参数调优、流式响应、错误处理。不再只是看代码示例,而是理解每个参数背后的设计决策。
理解为什么要自己构建 LLM 应用,学会 LLM Twin 架构设计和开发工具链。
这个阶段还没开始,建议按列表顺序一路往下做。
通过构建一个端到端的 LLM 产品——LLM Twin,来学习大语言模型工程。理解什么是 LLM Twin、为什么要构建它、如何用 FTI Pipeline 架构设计整个系统。
认识构建 LLM 系统所需的全套工具链:从 Python 项目管理到 ML Pipeline 编排,从数据库选型到实验追踪。工欲善其事,必先利其器。
巧妇难为无米之炊——掌握数据收集、处理、RAG Feature Pipeline 的构建。
这个阶段还没开始,建议按列表顺序一路往下做。
设计并构建 LLM Twin 的数据收集管线。从零实现 ETL Pipeline,使用 ZenML 编排、多种 Crawler 爬取数据,并存储到 MongoDB 数据仓库。
深入理解 RAG 的原理,从 Embedding 到 Vector DB,从 Vanilla RAG 到 Advanced RAG,最终实现完整的 RAG Feature Pipeline。
先学会衡量好坏,再把 RAG 系统从原型推向生产——评估框架 + RAG 推理管线。
这个阶段还没开始,建议按列表顺序一路往下做。
掌握 LLM 评估的完整知识体系:从通用 Benchmark(MMLU、HellaSwag)到领域评估,从 RAG 系统评估(Ragas、ARES)到 LLM-as-Judge 自动化评估。学会为你的模型和系统选择正确的评估策略。
掌握生产级 RAG 推理管线的核心技术:Query Expansion、Self-querying、Filtered Vector Search、Reranking,学会将实验室里的 RAG 原型变成可上线的生产系统。
有了评估标准,才知道微调的方向——SFT、DPO 偏好对齐、推理优化。
这个阶段还没开始,建议按列表顺序一路往下做。
掌握 Supervised Fine-Tuning (SFT) 的完整流程:从构建高质量 Instruction Dataset,到选择 LoRA/QLoRA 等参数高效微调技术,再到配置 Learning Rate、Batch Size 等训练超参数。本 Lab 带你从"用模型"进阶到"调模型"。
SFT 能教 LLM 完成任务,但很难教它"什么是好答案"。偏好对齐(Preference Alignment)通过对比"好答案"和"坏答案"来微调模型的行为。本 Lab 从 RLHF 讲到 DPO,带你掌握让 LLM 输出更符合人类偏好的核心技术。
深入理解 LLM 推理的性能瓶颈,掌握 KV Cache、Continuous Batching、Speculative Decoding 等核心优化技术,学会模型并行(Data/Pipeline/Tensor Parallelism)和 Quantization(GGUF、GPTQ、EXL2)的原理与实战。