logo
学习路线图RAG 检索增强生成路线图

RAG 检索增强生成路线图

入门12 个知识点预计学习时长: 200 小时

RAG(检索增强生成)路线图 展示了一种将外部知识与大语言模型相结合的实用型 AI 架构,用于解决模型“只依赖参数记忆”的局限。在这套流程中,系统首先对已有文档进行向量化并存入向量数据库,从而支持基于语义的高效检索。当用户提出问题时,问题本身也会被向量化,用于从向量数据库中检索最相关的内容,这些内容会作为上下文被注入到 Prompt 中,再由大语言模型生成最终答案。通过将“检索”与“生成”结合,RAG 显著提升了回答的准确性、专业性和知识时效性。这条路线图真实反映了当前企业级 AI 助手、知识问答系统和搜索增强应用在生产环境中的主流实现方式。

节点类型:
普通
推荐
备选
学习状态:
未开始
学习中
已完成
0/0
0%
Mini Map

关于RAG 检索增强生成路线图

RAG 检索增强生成路线图是一份系统化的技术学习指南,帮助你从零开始掌握等核心技能。本路线图包含12个精心设计的学习节点,预计学习时长约200小时,适合入门水平的学习者。

为什么选择这份路线图?

  • 系统化的学习路径,从基础到进阶循序渐进
  • 每个知识点都有详细的说明和推荐资源
  • 可交互的路线图,直观了解知识点之间的关系
  • 完全免费,随时随地开始学习
  • 标记学习进度,追踪你的成长轨迹

核心学习内容

本路线图涵盖了等核心技术领域,以下是部分重点学习内容:

Users

用户是RAG链路的触发者,提出问题或下达指令,并期望系统在回答中引用可靠知识。用户输入会影响检索范围与生成风格,因此需要清晰表达意图、约束与期望格式。良好的交互还应支持追问与反馈,让系统逐步收敛到可用...

Application(Orchestrator)

应用编排器负责把输入路由到各模块:向量化、检索、提示组装与LLM生成,并管理调用顺序、超时与重试。它会把证据与指令合并成最终上下文,控制token预算与引用格式。编排器也是策略中心,用于权限校验、日志...

Language Generating LLM(seq2seq)

生成模型把问题与证据转成自然语言答案,可能是seq2seq或对话式LLM,并在指令约束下组织结构与推理。它需要识别证据覆盖范围:能回答就引用并总结,缺失就明确不确定或请求更多信息。可配合自检、引用一致...

Documents

文档是RAG的知识底座,可能来自手册、FAQ、工单、代码与内部知识库。为提升检索效果,文档应结构化、去噪并保持版本更新,避免过期信息误导生成。对敏感内容要分级与权限控制,确保检索与引用只发生在允许范围...

Language Embeddings Model

嵌入模型把文本映射到向量空间,使语义相近内容距离更近,用于文档与问题的统一表示。选型要关注语种覆盖、领域适配与向量维度,并保证编码一致(同一模型/空间)。嵌入稳定性直接影响召回质量,必要时可做领域微调...

Vector database

向量数据库存储文档向量与元数据,提供近似最近邻检索、过滤与排序,是RAG的召回引擎。它支持按权限、时间、来源等字段过滤,再按相似度返回TopK候选。良好的索引与分片能兼顾低延迟与高吞吐,并支持增量更新...

准备好开始学习了吗?

点击上方路线图中的任意节点,查看详细的学习内容和推荐资源。 登录后还可以标记学习进度,追踪你的成长轨迹。

浏览更多路线图