logo
视频课程Introduction

AI Engineer核心技术实战课

一步步教你做出搜索、更智能、能执行任务的 AI 系统

  • 成为年薪$200K+的 AI Engineering人才
Course Price$2,180$3,299
Course Advisor
View AI Career Impact Map →
Course Visual
bootcamp-visual
Core Features

AI Engineer核心技术实战课 Highlights

01

完整对标 AI Engineer Bootcamp 的课程体系

02

灵活学习、无限回看、不怕错过任何细节

03

适合作为长期“AI 工程知识库”反复使用

04

成本更友好,是入门 AI 工程最实用的开始方式

Curriculum

AI Engineer核心技术实战课 Curriculum

1PHASE 1: GenAI 基础 + Context Engineering (Week 1-3)15 lessons
ℹ️Pre-workInfo
ℹ️PreparationInfo
🎬Generative Al & productivityVideo
🎬GenAl ConceptVideo
🎬Prompt EngineeringVideo
🎬RAGVideo
🎬GenAl AgentsVideo
🎬Generative Al OpsVideo
🎬Structured Data vs Unstructured DataVideo
🎬Introduction to Machine LearningVideo
🎬Supervised, Unsupervised, and Reinforcement learningVideo
🎬Introduction to Deep LearningVideo
🎬The transformer architectureVideo
🎬Input embeddingsVideo
✏️GenAI Capstone Project:intelligent Study Assistant(ISA)Assignment
2LLM Baiscs3 lessons
🎬Natural Language Processing(NLP)Video
🎬Transformer and AttentionVideo
🎬Language Models (LM)Video
3Prompt Engineering9 lessons
🎬PromptingVideo
🎬Fine-TuningVideo
🎬RAG 1Video
🎬RAG 2Video
🎬AgentsVideo
🎬Benefits and When to UseVideo
🎬Prompt Engineering: Best PracticesVideo
🎬Prompt Iteration through a User InterfaceVideo
🔬Project:Building and Sharing Your First GPT in OpenAI’s GPT StoreLab
4PHASE 3: AI Agents 工程化 (Week 7-9)3 lessons
ℹ️Define your success criteriaInfo
ℹ️ChatGPT Prompt SetInfo
ℹ️GenAI ToolboxInfo
5Embeddings7 lessons
🎬Understanding LLMs: Capabilities, Limits & Engineering Solutions)Video
🎬RAG基本架构Video
🎬Embedding嵌入模型Video
🎬向量数据库Video
🎬Native RAG存在的问题Video
🎬Advanced RAG 与 Agentic RAG:从基础检索到可控推理流程Video
🎬Contextual RAGVideo
6RAG Deployment7 lessons
🔬Project:Building RAG from Scratch in PythonLab
🎬What are API Rate Limits? - OpenAlVideo
🎬Azure OpenAl: Quotas, Rate Limiting, and PTUsVideo
🎬Pdf ParsingVideo
🎬invoice processingVideo
🔬Project:Shipping and Sharing a Rate-Unlimited, PDF-UploadReady RAG ApplicationLab
🎬Agent详解:构建第一个AgentVideo
7PHASE 4: 模型优化 + AI Evals + 毕业 (Week 10-12)6 lessons
ℹ️RAG Builder ToolboxInfo
ℹ️AI Resource HubInfo
🎬Budgeting and API costsVideo
ℹ️End-to-End RAG ToolboxInfo
🎬用 AWS 构建 RAG应用Video
ℹ️Deploying and Operating RAG in ProductionInfo
8RAG with LangChain2 lessons
🎬Introduction to LangChainVideo
ℹ️Production RAG ToolboxInfo
9RAG with LangChain18 lessons
🎬LangChain Core ConstructsVideo
🎬LangChain 架构层次Video
🎬Chat Models-深入Video
🎬Prompt Templates-高级技巧Video
🎬Output Parsers-实战Video
🎬Retrieval-向量存储Video
🎬Document loadersVideo
🎬Langchain Expressio Nlanguage LCELVideo
🎬LangsmithVideo
🎬Code ExamplesVideo
🎬Agents & ToolsVideo
🎬Memory 系统Video
🎬LangChain与外部数据源的集成Video
🎬SQL 数据库集成Video
🎬REST API集成Video
🎬Monitoring and Visibility with LangSmithVideo
🎬LLMs OverviewVideo
🔬Project:Building and Sharing your First RAG QA Application with LangChainLab
10RAG Evaluation10 lessons
🎬RAG ReviewVideo
🎬Traditional Retrieval Evaluation MetricsVideo
🎬LLM Generation Evaluation MetricsVideo
🎬RAG Evaluation1Video
🎬RAG Evaluation FrameworksVideo
🎬RAGAS evaluation MetricsVideo
🎬Metrics: Context Recall, Context Precision, Answer Relevancy, and FaithfulnessVideo
🎬RAGAS代码实操Video
🎬LangfuseVideo
🎬RAG Asessment (RAGAS) Framework 2Video
11RAG Evaluation1 lessons
ℹ️RAG Evaluation ToolboxInfo
12Agent Application with LangGraph4 lessons
🎬AgentsVideo
🎬The Reasoning-Action (ReAct) FrameworkVideo
🎬Search and Retrieval with Tools (Function Calling)Video
🔬Project:Building a production-grade Agentic RAG ApplicationLab
13Agent Application with LangGraph1 lessons
ℹ️Production Agents Application ToolboxInfo
14Multi-Agent Applications10 lessons
🎬Multi-Agent SystemsVideo
🎬Network of AgentsVideo
🎬Supervisor Agent ApproachVideo
🎬Hierarchical Supervisor SystemsVideo
🎬Communication Mechanisms in Multi-Agent SystemsVideo
🎬What is LangSmithVideo
🎬Agent Demo展示Video
🎬Hierarchical, Multi-Agent Collaboration, Agent SupervisionVideo
🎬Multi-Agent Frameworks: AutoGen, CrewAIVideo
🔬Project:Building a Multi-Agent RAG Application with LangGraphLab
15Multi-Agent Applications1 lessons
ℹ️Multi-Agent Application ToolboxInfo
16Model Context Protocal(MCP)8 lessons
🎬Introducing the Model Context Protocol(MCP)Video
🎬MCP ServerVideo
🎬解读原码Video
🎬Integrating MCP (Mixture of Content Providers) into AI EngineeringVideo
🎬Building a MCP Project 01Video
🎬Building a MCP Project 02Video
🎬Deep agents 01Video
🎬Deep agents 02Video
17Synthetic Data Generation12 lessons
🎬What is a Prompt and Why Does lt Matter?Video
🎬How to Design an Effective Prompt?Video
🎬Prompt Templates & Parameter Tuning1Video
🎬Prompt Templates & Parameter Tuning 2Video
🎬Data Generation & Fine-TuningVideo
🎬Selecting the Right Data for Fine-TuningVideo
🎬Understanding Model Alignment and ComplianceVideo
🎬Using Prompts to Generate Alignment DataVideo
🎬Real-World Applications of Model AlignmentVideo
🎬Methods for Evaluating Data QualityVideo
🎬Test Data Generationfor RAG: In-DepthEvolutionVideo
🔬Custom Synthetic Test Data Generation for RAG EvaluationLab
18Synthetic Data Generation1 lessons
ℹ️SDG ToolkitInfo
19Fine-Tuning Embedding Models16 lessons
🎬Why LLM Fine TuningVideo
🎬What is model trainingVideo
🎬What is LLM Fine TuningVideo
🎬大模型微调方法Video
🎬How to fine tune LLMVideo
🎬练习Video
🎬Downloading Open-Source Model WeightsVideo
🎬Loading LMs on GPUVideo
🎬为什么要使用 Sentence Transformers?Video
🎬准备工作Video
🎬语义检索Video
🎬Retrieve & Re-Rank-检索和重新排序Video
🎬聚类(Clustering) : 归类相似的文本Video
🎬多语言与多模态Video
🎬模型性能Video
🔬Project:Fine-Tuning Embedding Models for RAG using LlamaIndexLab
20Fine-Tuning Embedding Models1 lessons
ℹ️Embedding Fine-Tuning ToolkitInfo
21Fine-Tuning Open-Source LLMs with Low-Rank Adaption13 lessons
🎬Fine-Tuning Large Language ModelsVideo
🎬Why Fine-Tuning?Video
🎬Types of Fine-TuningVideo
🎬LORA (Low-Rank Adaptation)Video
🎬Parameter Efficient Fine-Tuning (PEFT)Video
🎬The “Problem“ with LLMsVideo
🎬Memory ConstraintsVideo
🎬Introduction to QuantizationVideo
🎬Types of Data Representations in AlVideo
🎬How Quantization Works?Video
🎬Asymmetric QuantizationVideo
🎬Model Quantization in PracticeVideo
🔬Project:Fine-Tuning Llama 3.1 with PEFT-QLoRALab
22Career Coaching1 lessons
🎬Linkedin & CV 2024.12.08Video
View Full Curriculum
NotionCourse Detail

AI Engineer视频自学班

为什么现在需要系统学习 AI 工程化?视频课适合哪类学习者?

随着 RAG、Agent、多智能体、MCP 等工程化技术快速普及,AI Engineer 已成为各大企业重点招聘的技术方向。无论是软件开发者、数据人才、云工程师,还是正在探索 AI 技术的职场人士,都开始意识到“AI 工程能力”将成为未来几年最重要的技术竞争力。
为了满足不同学习者的节奏需求,我们推出了 AI Engineer 视频自学班(Self-paced Program)
它与 Bootcamp 使用相同的课程大纲,但专为 时间不固定、喜欢自主学习、希望反复回看复杂内容 的同学设计。
视频课的目标是:
帮助你先建立完整的 AI 工程化知识体系,掌握 RAG、Agent、MCP、Fine-tuning 等核心技术,掌握企业级 AI 工程能力。
notion image
如果你希望有导师带练、项目辅导、组队协作与面试准备,那么 Bootcamp 仍然是更适合你的选择;而如果你的时间更灵活、想按自己的节奏推进学习,那么视频课就是最好的入门与能力提升路径。

视频自学班 vs Bootcamp:两种不同学习节奏的最佳选择

虽然视频课与 Bootcamp 共享相同的课程大纲和技术体系,但它们面向的学习场景完全不同。Bootcamp 更适合需要导师讲解带练、定期项目反馈、组队协作与求职支持的同学,而视频课程则为学习时间不固定、偏好自主推进、或想先建立整体技术框架的学习者提供更灵活的路径。

视频课的主要特点与优势

① 自主节奏,不受直播时间限制
对于工作繁忙、上课时间不稳定的同学,视频课可以随时开始、随时停止。你无需配合固定的直播节奏,也不会因为缺课错过关键知识点。
② 可重复观看复杂内容,适合系统消化
RAG、Agents、MCP Server、Deep Agents 等高难度模块本身就需要反复回看。视频课允许你在关键知识点反复重播、对照代码逐行理解,更适合深入消化工程化思维。
③ 适合作为“Bootcamp 前置学习”或“长期知识库”
许多同学会先用视频课建立基础框架,未来想进一步冲刺就业时再加入 Bootcamp。视频课也能作为长期技术手册,在真实项目中随时查阅。
④ 更适合自驱型学习者
如果你喜欢“边暂停边写代码、自己调试、独立研究”的学习节奏,那么视频课会给你最高的自由度。

课程内容一览:完整对标 AI Engineer 核心技术栈

AI Engineer 视频自学班涵盖从基础概念到生产级工程化的完整路径,课程大纲与 AI Engineer Bootcamp 保持一致,覆盖行业所需的所有核心技能模块。你将系统学习从 LLM 基础、Prompt 模式,到 RAG 系统、多智能体 Agent、MCP、模型微调与 LLM Ops 的全流程 AI 工程知识。这些模块全部来自真实企业需求与工程场景设计,让你在自学进度中也能建立完整的工程化思维框架。
notion image
AI Engineer 的核心能力,不只是“会调用 ChatGPT”,而是能把 AI 嵌入到系统中,让它真正能查数据、能分析文件、能调用工具、能执行任务、能处理企业业务流程。为了让同学真正理解每项技术背后的意义,我们在下面每个知识点后都加上了清晰的解释与现实案例,帮助你理解“这项技术到底解决了什么问题”。
以下为课程的核心模块概览:

① LLM & GenAI 基础(LLM Basics)

大语言模型(LLM)是现代 AI 应用的核心,它决定了一台机器能否“看懂文本、理解意图、给出有逻辑的回答”。这一模块会带你从底层了解 AI 的基本工作方式,包括模型如何读取你的输入、如何通过数学方式理解语言、如何生成听起来像人类写出的内容。即使你是零基础,也能在这里建立起一个清晰框架:AI 是怎么“读懂”你的话,又是怎么“想出”它的回答。
核心知识点包括:
  • Transformer 架构的核心原理
  • Tokenization(文本如何被切分成模型能理解的格式)
  • Embeddings(语言如何被转成数学向量)
  • 模型推理机制(Inference)
  • LLM API 的 System / User / Assistant 三种角色
  • GenAI 的四大原型模式:Prompt / RAG / Fine-tuning / Agents
这部分是你理解“AI 为什么能回答问题”的核心基础。想象你在构建一个智能系统你在构建的智能系统,例如一个能回答公司内部政策的 AI 客服。AI 必须先能“理解”你的问题,再从上下文中判断用户意图,然后生成准确的回答。如果你不了解 LLM 的工作机制,就会很难判断为什么模型有时回答很好,有时又出现错误或误解。
这一模块让你看懂 LLM 处理文本的全过程:模型如何将句子变成向量、如何在内部做计算、如何预测下一个最合适的词。这套理解能力是 AI Engineer 的基础,它能让你后续做 RAG、Agents、MCP 时不再“盲写代码”,也能设计出更稳定、更可控的 AI 系统。
学完这个模块你会学会:
  • 模型如何理解你给的文本
  • 模型如何把语句“转换成数学向量”
  • 为什么模型能生成像人类一样流畅的回答

② Prompt Engineering & 原型设计

Prompt Engineering 是构建所有 LLM 应用的第一步,它决定了模型是否能按照你定义的角色、规则与流程执行任务。本模块会以实际工程场景为线索,带你理解四种主流原型(Prompting、Fine-Tuning、RAG、Agents)的区别与使用方式,同时学习如何设计高质量的提示、如何定义任务成功标准,以及如何通过用户界面进行 Prompt 迭代。这些能力属于 AI 应用开发的“根基层”,无论你后续构建 RAG、Agent、多智能体系统或使用 MCP,都离不开这一套技能。
知识点包括:
  • The Four Prototyping Patterns
    • Prompting、Fine-Tuning、RAG、Agents 的核心区别、适用场景与工程化选型
  • Define your success criteria
    • 如何为一个 AI 任务定义成功指标(成功率、输出结构、风格一致性、业务要求等)
  • Prompt Engineering: Best Practices
    • 编写高质量 Prompt 的规则、结构、典型模式与常见误区
  • Prompt Iteration through a User Interface
    • 如何在 UI 中快速迭代 Prompt,使输出不断变得更准确、更稳定
  • Building and Sharing Your First GPT in OpenAI’s GPT Store
    • 将写好的 Prompt 封装成可复用的 GPT,发布到 GPT Store 并用于实际场景
学完之后你将掌握:
  • 能够清晰区分 Prompting、RAG、Fine-Tuning、Agents 的应用场景与优缺点
  • 能为一个 AI 任务定义一套可量化的成功标准(Success Criteria)
  • 能编写高质量、结构化、符合业务要求的 Prompt
  • 能根据模型输出结果进行 Prompt 迭代,快速提升稳定性与准确度
  • 能构建并发布自己的第一个 GPT 产品(具备可展示价值)
  • 为后续 RAG、Agent、MCP 等模块打下坚实“控制模型行为”的基础能力
为什么要学?
在企业应用中,一个 LLM 系统是否“可靠”,往往不是由模型本身决定,而是由 Prompt 的设计质量决定。例如,一个 AI 应用需要帮助 HR 自动筛选候选人时,Prompt 需要明确告诉模型:
  • 简历中哪些关键词表示“符合要求”
  • 遇到模糊情况如何判断
  • 输出格式是否需要结构化(如 JSON)
  • 不能出现哪些风险性语言
  • 如何保证每次输出的风格一致
如果 Prompt 没写好,AI 的输出会模糊、不稳定、容易偏题,甚至给出企业无法接受的结果。而这些问题在工程实践中非常常见:“AI 不是不会写答案,而是没有被正确引导”。本模块的任务,就是通过结构化方法让你的指令更专业,让模型输出更可控、更符合业务逻辑。

③ Embeddings 与向量数据库(Vector DB)

向量化(Embeddings)是让 AI “读懂知识”和“记住内容”的关键技术。如果说大语言模型负责理解语言,那么 Embeddings 就负责让模型理解你的数据 —— 包括 PDF 文件、业务知识库、Email、网页内容、客户对话记录等。
本模块会带你理解为什么企业级 AI 系统都离不开向量数据库(Vector Database),以及数据是如何从“文本”转化为“数学向量”,再通过向量检索找到最相关的内容。这是构建 RAG、企业知识库 AI、内部搜索系统的核心技能。核心知识点包括:
  • Input Embeddings
  • Embedding Models vs. LLM Chat Models
  • 文档 Chunking 机制(如何切分内容以提升检索效果)
  • 向量检索原理(Vector Search / Similarity Search)
  • 向量数据库在 RAG 架构中的作用(Retriever / Index / Search)
在企业环境中,AI 不能凭空知道你的知识,它必须从资料中“找出相关信息”再回答。这就是 Embeddings 的作用:把你的文本数据(PDF、文档、笔记、客服对话)转成模型能理解的“数学向量”。随后,通过向量数据库(如 Qdrant、FAISS、Milvus),AI 可以快速找到与用户问题最相关的内容。
例如:你为一家公司构建一个内部 AI 助手,员工可能会问:
  • “我们 2024 年员工差旅报销的规则是什么?”
  • “项目 X 的技术文档在哪里?”
  • “客户 ABC 的合同更新日期是哪天?”
这些信息可能分散在几十份 PDF、Excel、知识库网站或邮件里。AI 本身不知道这些资料,但 Embeddings 可以:
  1. 读取所有文件
  1. 转成向量并存入 Vector Database
  1. 对问题进行向量匹配
  1. 找到最相关的几段内容
  1. 再让 LLM 基于这些内容生成一个准确答案
这是所有 RAG 系统的基础,也是企业最常见、最具有招聘需求的 AI 工程技术。
学完之后你将能:
  • 了解 Embeddings 如何将文本转成模型可理解的向量
  • 熟练理解 Embedding 模型与 Chat 模型的区别及作用场景
  • 能够将文档进行合理 Chunking,提高检索准确度
  • 能理解与操作向量数据库(Vector DB)
  • 能构建基于向量检索的 Mini RAG 原型
  • 为后续构建完整 RAG 系统打下工程基础

④ RAG 系统:从基础到企业级(RAG Deployment)

RAG 是企业级 AI 应用中最常用、最核心的技术,它让模型能够“准确引用你的知识”。简单来说,LLM 并不知道你的公司政策、内部文档或业务数据,RAG 就是让模型在回答前“先去查资料,再来作答”。
本模块会带你从零理解 RAG 的架构、流程、工具链,并系统学习如何构建、优化、测试与部署 RAG 应用。无论企业要做“公司内部知识库搜索”、“AI 客服”、“文档问答系统”,还是产品级 AI 助手,都必须掌握 RAG。
在真实企业场景中,AI 最大的问题不是“不够聪明”,而是“不知道答案”。例如:
  • “我们客户 ABC 的合同条款是什么?”
  • “员工手册里关于加班薪资的规定是什么?”
  • “这个设备的维护步骤怎么写?”
模型本身无法凭空知道。因此企业几乎所有 AI 系统都用 RAG 让模型引用内部知识库。RAG 的工作方式是:
  1. 把你的文档转换成 Embeddings,存进 Vector DB
  1. 用户提问时,将问题也转成向量
  1. 用向量匹配找出最相关的几段内容
Course DetailCourse Detail
Why DevOps

为什么选择{{AI Engineer视频自学班}}

行业洞察AI Engineer 视频课程为你提供最完整、最实用、最符合行业需求的 AI 工程学习路径。课程内容由一线大厂工程师设计,涵盖从基础原理到企业级应用的全链路技能,让你能够真正构建可部署、可扩展、可维护的 AI 系统。相比零散的网络教程,本课程的体系更完整、路线更清晰,知识点紧贴最新的行业趋势与企业招聘标准。更重要的是,你可以完全按照自己的节奏学习,增加自己的简历竞争力与职场优势。 ...

Roadmaps

Learning Roadmaps

System design projects and learning paths included in the course

📚

AI Engineering

Intermediate
26 topics
Loading...
Target Audience

谁应该参加我们的AI Engineer核心技术实战课

- 工作忙、时间零散,但想系统学习 AI 工程的人
- 想先自学一遍,再决定是否进入 Bootcamp 的人
- 自驱型学习者(喜欢自己推敲、边学边敲代码)
- 想转型 AI Engineer 但预算有限的学习者
- 想把课程当“长期技术手册”的人

分享此页面

AI Engineer核心技术实战课 分享给朋友

LIVE CLASS

How We Deliver Live Classes Online

  • Flexible Learning Schedule: Join the classroom anytime, anywhere
  • Immersive Learning Environment: We create a highly interactive and immersive learning environment through virtual spaces. Students can communicate and collaborate in virtual classrooms, labs, and meeting rooms.
Online class
Online community
SOCIAL

Reduce Loneliness in Online Learning

  • Combat Learning Isolation: See who else is studying with you, find like-minded learning partners, and grow together.
  • Enhance Social Skills: In the virtual environment, students can freely make new friends and engage in social interactions. This helps improve social skills and teamwork, especially for introverted students.
PROJECT

How do we discuss projects?How We Do Team Projects

  • Build Strong Team Collaboration: More efficient and authentic discussions
  • Real-time Feedback and Support: Instructors and tutors observe students in real time, providing immediate feedback and support to enhance learning outcomes.
Team discussion