
成为年薪$200K+的 AI Engineering人才

在这节课中,你将系统理解生成式 AI(Generative AI)在真实商业世界中究竟能做些什么,以及企业为什么如此重视 AI 能力。
课程从 GenAI 的三大应用方向出发,带你了解 AI 如何提升用户体验、增强员工生产力、优化企业业务流程。随后,你会第一次接触 AI Engineering 的核心思想:AI 工程不是模型研究,而是“让 AI 真正能为企业干活”,重点是把稳健的原型快速变成可复用、可上线的应用。
本节课将帮助你从“工具使用者”向“能构建 AI 系统的人”完成第一步认知转变,为后续深入学习 RAG、Agents、MCP 与生产级部署打下基础。
学习完本节课,你将能够:
说清楚生成式 AI 在企业中的 三大核心应用方向
(提升客户体验 / 提高员工生产力 / 优化业务流程)。
认识 AI Engineer 的职业定位与核心职责——不是科研,而是构建能落地的 AI 解决方案。
理解“构建 → 交付 → 可复用”的 AI 工程理念。
初步掌握 AI 工程包含的主要概念:Prompt、RAG、Agents 等基石能力。
建立对后续课程(RAG、Agent、MCP 等)的整体知识框架。
PPT 将生成式 AI 的企业级应用总结成三个方向,每一个方向都对应广泛且真实的业务场景:
如:客服机器人、个性化推荐、对话式搜索、企业智能助手。
👉 企业希望让 AI 解决“用户问问题、企业要快速回答”这一核心痛点。
如:AI Coding Assistant、自动文档处理、报告生成、知识问答、Data Democratization。
👉 让 AI 成为员工的“第二大脑”,减少重复劳动。
如:流程自动化、欺诈检测、数据增强、AIOps、呼叫中心自动化。
👉 让 AI 接得住业务流程,把手工步骤变成自动化。
AI Engineering 是构建、交付、复用“能真正落地”的 AI 应用的工程学。
也就是说,AI Engineer 做的不是训练模型,而是:
让 AI 模型能稳定地嵌入业务流程
把一个原型做成可靠、可维护的应用
平衡实验性与生产稳定性
确保应用的准确性、可用性、可扩展性
它更像软件工程 + AI 应用集成,而不是算法研究。
一个优秀的 AI Engineer 需要:
能迅速把 Prompt → Demo → 可运行应用。
既能尝试新方法,又能保证工程质量与稳定性。
不仅生成一个答案,而是让系统能执行任务、查数据、做决策、触发流程。
这一页是后续课程的知识地图,包括:
Foundation Models(LLM 基础模型是什么、如何预训练)
Core AI tasks(文本生成、摘要、问答、信息抽取、聊天)
三大核心应用方式:
Fine-tuning
Prompt Engineering
Retrieval Augmentation(RAG)
这一页为学习后续模块(Prompt、RAG、Agents)建立概念基础。
学习完这一小课,你将能够:
向别人讲清楚“GenAI 到底能为企业做什么”。
理解 AI Engineer 的真实工作内容,不再把自己定位成“工具使用者”。
建立后续深入学习 RAG、Agent、MCP 的完整认知框架。
看懂企业 AI 项目的结构,知道从“原型”到“上线”之间需要哪些工程步骤。
在本节课程中,我们将深入探讨三种主要的机器学习类型——监督学习、非监督学习和强化学习,帮助您更清晰地理解这些核心概念:
课程最后,我们预告了深度学习的内容,这是一种更复杂的机器学习方法,由神经网络驱动,将带您领略计算机科学的前沿创新。本节课将为您铺平机器学习的探索之路,帮助您在实际项目中选择合适的学习方法。
在本节课程中,我们将详细讲解变换器(Transformers)架构,深入探索其在自然语言处理(NLP)任务中的强大功能。您将学习变换器如何通过其编码器-解码器架构,一次性处理所有输入,提升翻译和文本生成等任务的效率和精确度。
课程主要内容包括:
这节课程将帮助您理解变换器架构的复杂性,并为您奠定使用与实现变换器的基础。之后,我们将继续探讨变换器的解码器模块,进一步加深对这一革命性技术的理解。
在本节课程中,我们将详细讲解变换器架构的**输入嵌入(input embeddings)**过程,这是实现自然语言处理的第一步。该步骤将文本转换为数值表示,使得模型能够处理和理解语言中的语义和上下文信息。
课程内容包括:
通过这些步骤,我们为变换器的编码器模块创建了具有语义和上下文信息的输入嵌入,为后续处理打下了基础。这一过程是现代大型语言模型的关键,也是文本转化为计算机可理解数据的必要步骤。
本课程旨在为学生提供对Transformer架构的深入理解。通过该课程,学生将学习以下内容:
通过本课程,学生将具备扎实的Transformer理论基础和实践技能,能够将其应用于实际的深度学习任务中。
学习目标
知识点介绍
Prompt Iteration基础
用户界面设计与交互
用户反馈与Prompt优化
实际应用中的Prompt Iteration
通过这些知识点,学员将能够设计并优化支持Prompt Iteration的用户界面,并通过用户反馈和持续改进提升模型的生成效果。
学习目标
知识点介绍
Embedding Models基础
LLM Chat Models基础
应用场景对比
模型选择与集成
性能优化与调优
通过这些知识点,学员将能够理解Embedding Models与LLM Chat Models的差异,掌握各自的应用场景,并根据实际需求选择并集成这两类模型,构建更智能和高效的AI系统。
学习目标
- 掌握使用Python构建简单用户界面(User Interfaces, UI)的基础技能
- 学习如何通过常见的Python UI库(如Tkinter或PyQt)创建交互式应用
- 理解如何在Python中结合用户输入与逻辑处理,实现基础的界面交互
- 探索如何设计直观的UI布局,提升用户体验
知识点介绍
**Python UI基础概念**
- 了解Python中用户界面的概念和重要性
- 掌握UI组件(如按钮、文本框、标签等)的基本使用
**Tkinter基础**
- 使用Tkinter构建简单的窗口与布局
- 如何通过Tkinter创建交互式元素,如按钮和文本输入框
**PyQt基础**
- 介绍PyQt的基础结构和应用场景
- 学习如何使用PyQt创建更复杂的用户界面,包括多窗口和事件处理
**用户输入与逻辑处理**
- 如何通过Python获取用户输入并处理事件
- 将用户界面与后台逻辑相结合,实现动态交互
**UI设计与布局优化**
- 使用布局管理器优化UI的设计,提升用户体验
- 如何通过简单的设计原则让UI更具吸引力和实用性
通过学习这些知识点,学员将能够使用Python构建简单的用户界面,并将其集成到实际应用中,实现基本的用户交互功能。
学习目标
- 理解大语言模型(LLM)的Rate Limits机制及其对API调用的影响
- 掌握如何在开发过程中优化LLM API请求,减少因Rate Limits导致的调用失败
- 学习如何监控和管理LLM Rate Limits,以确保高效的模型性能和用户体验
- 探索常见的Rate Limits策略及其在不同应用场景中的应对方法
知识点介绍
**LLM Rate Limits基础**
- 什么是Rate Limits:限制API调用频率的机制
- 理解LLM API中的常见Rate Limits参数(如请求数、时间窗口)
**Rate Limits的影响**
- 如何Rate Limits影响API请求、响应时间和应用性能
- 探讨Rate Limits对高频API调用场景(如实时对话生成、批量数据处理)的影响
**Rate Limits管理与监控**
- 使用API监控工具追踪调用频率和Rate Limits状态
- 如何通过最佳实践减少Rate Limits超出问题,如请求分片、批处理和延时调用
**Rate Limits优化策略**
- 实施请求队列、重试机制和缓存策略以避免超过Rate Limits
- 如何优化提示(Prompt Engineering)以减少API调用次数,同时保持生成质量
**常见应对策略**
- 在不同平台上处理Rate Limits的常用方法:OpenAI、Google Cloud等
- 探索如何在不同业务场景中平衡调用频率与性能需求
通过这些知识点,学员将能够有效管理和优化LLM API的Rate Limits,从而提升应用的性能和可靠性。
授课老师:Peiyao
学习目标
- 掌握LangChain Expression Language的基本概念及其在构建复杂任务流中的应用
- 学习如何通过Chains和Runnables高效管理和执行多步骤任务
- 理解如何使用LangChain Expression Language实现动态的Prompt Chains与任务自动化
- 提升在复杂项目中使用Chains和Runnables的能力,优化工作流和模型生成效果
知识点介绍
**LangChain Expression Language概述**
- LangChain Expression Language的定义与核心功能
- 如何通过该语言构建灵活的任务流,简化复杂任务的执行流程
**Chains的使用与管理**
- 学习如何创建与管理Prompt Chains,处理多步骤任务
- 掌握将不同任务组合到Chains中的最佳实践,以提升任务执行效率
**Runnables的概念与应用**
- 了解Runnables的定义及其在LangChain中的执行机制
- 如何通过Runnables动态调用LLM、API或其他外部资源来自动化任务
**Prompt Chains与Runnables的集成**
- 学习如何将Runnables嵌入到Prompt Chains中,实现复杂的任务自动化
- 优化Chains和Runnables的集成,确保任务流程的灵活性与可扩展性
**应用场景分析**
- 通过LangChain Expression Language处理实时数据检索、任务调度与生成内容
- 在对话系统、数据处理和智能问答等场景中有效运用Chains与Runnables
通过这些知识点,学员将能够熟练使用LangChain Expression Language中的Chains和Runnables,构建动态且高效的任务流,优化生成式AI应用的整体表现。
学习目标
- 掌握Metrics中的核心概念,包括Context Recall、Context Precision、Answer Relevancy和Faithfulness
- 理解这些指标在评估生成式AI和Retrieval Augmented Generation (RAG)系统中的作用
- 学习如何使用这些Metrics评估生成内容的质量和准确性
- 提升在实际项目中应用这些Metrics进行模型优化和系统性能改进的能力
知识点介绍
**Context Recall**
- 了解Context Recall的定义及其在RAG系统中的应用
- 学习如何衡量模型在生成内容时成功利用上下文信息的能力
- 掌握提高Context Recall的方法,确保更多相关上下文信息被检索并用于生成
**Context Precision**
- 理解Context Precision的概念,评估模型使用的上下文信息是否准确和相关
- 学习如何通过优化检索和生成过程提高Context Precision,减少无关或错误信息的使用
**Answer Relevancy**
- 掌握Answer Relevancy的评估方法,确保生成的答案与问题高度相关
- 理解如何使用Answer Relevancy指标衡量生成模型的回答质量和一致性
- 学习优化模型生成回答以提高其相关性和用户满意度
**Faithfulness**
- 了解Faithfulness的概念,即生成的答案是否忠实于检索的上下文或训练数据
- 学习如何使用Faithfulness评估模型生成内容的准确性,避免产生虚假或不准确的回答
- 通过调优模型提高其Faithfulness,确保生成内容的真实性和可靠性
**应用场景与优化策略**
- 探索这些Metrics在知识问答系统、生成式内容创作、文档摘要等领域的实际应用
- 学习如何根据评估结果优化检索策略、提示设计和生成模型,提高系统的整体性能
通过这些知识点,学员将能够有效使用Context Recall、Context Precision、Answer Relevancy和Faithfulness等Metrics评估生成系统的质量,并根据评估结果优化模型的表现。
学习目标
- 掌握Metrics中的核心概念,包括Context Recall、Context Precision、Answer Relevancy和Faithfulness
- 理解这些指标在评估生成式AI和Retrieval Augmented Generation (RAG)系统中的作用
- 学习如何使用这些Metrics评估生成内容的质量和准确性
- 提升在实际项目中应用这些Metrics进行模型优化和系统性能改进的能力
知识点介绍
**Context Recall**
- 了解Context Recall的定义及其在RAG系统中的应用
- 学习如何衡量模型在生成内容时成功利用上下文信息的能力
- 掌握提高Context Recall的方法,确保更多相关上下文信息被检索并用于生成
**Context Precision**
- 理解Context Precision的概念,评估模型使用的上下文信息是否准确和相关
- 学习如何通过优化检索和生成过程提高Context Precision,减少无关或错误信息的使用
**Answer Relevancy**
- 掌握Answer Relevancy的评估方法,确保生成的答案与问题高度相关
- 理解如何使用Answer Relevancy指标衡量生成模型的回答质量和一致性
- 学习优化模型生成回答以提高其相关性和用户满意度
**Faithfulness**
- 了解Faithfulness的概念,即生成的答案是否忠实于检索的上下文或训练数据
- 学习如何使用Faithfulness评估模型生成内容的准确性,避免产生虚假或不准确的回答
- 通过调优模型提高其Faithfulness,确保生成内容的真实性和可靠性
**应用场景与优化策略**
- 探索这些Metrics在知识问答系统、生成式内容创作、文档摘要等领域的实际应用
- 学习如何根据评估结果优化检索策略、提示设计和生成模型,提高系统的整体性能
通过这些知识点,学员将能够有效使用Context Recall、Context Precision、Answer Relevancy和Faithfulness等Metrics评估生成系统的质量,并根据评估结果优化模型的表现。
学习目标
- 理解如何评估Retrieval Augmented Generation (RAG)应用中的检索准确性和生成质量
- 学习如何设计和使用关键指标评估RAG系统中的信息检索和内容生成
- 掌握如何通过评估优化RAG应用的性能,确保系统的高效性和准确性
- 提升在实际项目中使用评估技术优化RAG系统的能力,改善用户体验
知识点介绍
**Retrieval Accuracy**
- 理解Retrieval Accuracy的概念,学习如何衡量RAG应用中的文档检索精度
- 使用指标如Precision、Recall和F1-Score评估检索结果的准确性与相关性
- 学习如何通过调优检索算法与策略提高Retrieval Accuracy,确保系统提供高质量的检索结果
**Generation Accuracy**
- 掌握如何评估RAG系统的生成质量,确保生成内容与用户请求相关且准确
- 使用BLEU、ROUGE等指标衡量生成文本的准确性和流畅性
- 学习如何通过优化生成模型和Prompt设计提高Generation Accuracy
**评估检索与生成的结合**
- 理解如何将Retrieval Accuracy与Generation Accuracy结合评估,确保整个RAG系统的端到端表现
- 研究如何通过精确的检索和高质量的生成相结合,提升系统的整体性能
**自动化评估与迭代优化**
- 探索如何通过自动化评估流程进行持续的系统优化和调优
- 学习如何根据评估结果改进检索策略和生成模型,提升系统的用户体验和响应速度
**实际应用场景**
- 了解在知识问答系统、文档生成、智能搜索等RAG应用中如何评估检索和生成的准确性
- 学习如何根据特定应用场景调整评估策略,确保RAG系统的高效性与准确性
通过这些知识点,学员将能够设计和实施评估技术,衡量RAG应用中的检索和生成表现,并通过评估结果持续优化系统的性能。
学习目标
- 掌握Agent Operations (Agent Ops)的核心概念,理解如何通过LangSmith进行多Agent系统的管理和优化
- 学习如何监控、调度和优化Agent在生产环境中的表现
- 理解如何使用LangSmith进行Agent的调试、测试和持续监控,确保高效的任务执行
- 提升在实际项目中使用LangSmith进行Agent Ops管理和优化的能力
知识点介绍
**Agent Operations (Agent Ops) 概述**
- 了解Agent Ops的核心理念以及如何通过LangSmith进行多Agent系统的管理
- 学习如何监控多个Agents的任务执行情况,确保系统的高效性与稳定性
**LangSmith的Agent管理功能**
- 使用LangSmith进行Agent的实时监控、日志记录和性能跟踪
- 学习如何通过LangSmith调试和优化Agents,提升任务执行的准确性
**Agent调度与优化**
- 理解如何在生产环境中进行Agent调度,实现任务的动态分配与资源优化
- 学习如何通过LangSmith的调度机制,提升系统的响应速度和任务执行效率
**持续监控与调试**
- 通过LangSmith进行持续监控,确保多Agent系统在高负载下的稳定性
- 学习如何捕捉和分析Agent的错误日志,并通过LangSmith进行实时调试
**Agent Ops的应用场景**
- 了解Agent Ops在复杂任务系统、生成式AI、自动化控制等领域的实际应用
- 学习如何通过LangSmith优化多Agent系统的整体性能,确保系统的可扩展性与稳定性
通过这些知识点,学员将能够使用LangSmith管理、监控并优化多Agent系统,确保系统在生产环境中的高效运行,并能够应对复杂的任务调度和性能调优需求。
学习目标
- 理解Multi-Agent Frameworks的核心概念,并学习如何使用AutoGen和CrewA构建多Agent系统
- 掌握如何通过这些框架设计、部署和管理多个Agents,处理复杂任务
- 学习如何优化Agents之间的协作与通信,提升系统的任务执行效率
- 探索如何在实际项目中使用AutoGen和CrewA框架进行多任务调度和自动化操作
知识点介绍
**Multi-Agent Frameworks概述**
- 了解Multi-Agent Systems (MAS)的基础架构,理解AutoGen和CrewA在多Agent系统中的作用
- 学习如何通过这些框架实现任务的自动化与并行处理
**AutoGen Framework的使用**
- 掌握AutoGen框架的核心功能和模块,学习如何使用它来自动生成和管理多个Agents
- 理解如何通过AutoGen实现动态任务分配与自动化调度
**CrewA Framework的应用**
- 掌握CrewA的功能特性,了解如何使用CrewA进行多Agent系统的协作与通信
- 学习如何通过CrewA优化任务执行顺序与资源分配,确保系统的高效运行
**Agents的协作与通信优化**
- 研究如何在复杂任务环境中设计Agents之间的协作机制,确保任务的顺利执行
- 学习如何通过这些框架提升Agents之间的通信效率与任务协调
**实际应用场景与系统扩展**
- 探讨Multi-Agent Frameworks在自动化控制、智能决策、生成式AI等领域的应用
- 学习如何扩展AutoGen和CrewA系统的规模与处理能力,以适应更复杂的任务环境
通过这些知识点,学员将能够使用AutoGen和CrewA构建、管理并优化多Agent系统,确保系统在实际项目中的高效运行和稳定性。
注册API Keys、Introducing the Model Context Protocol(MCP)
1. 课程简介
本课程旨在深入解析下一代 AI Agent——“深度代理”的运作机制。课程将从深度代理的定义出发,对比传统 ReAct 模式的局限性,重点剖析支撑深度代理长时间、复杂任务处理能力的四大关键组件(系统提示、规划工具、子代理、文件系统),并结合 Claude Code 和 Manus 等前沿案例进行实战讲解。
2. 教学大纲内容
第一章:深度代理基础 (Foundations of Deep Agents)
1.1 定义与核心能力
深入探索(Deep Exploration): 具备对主题进行垂直深挖的能力。
复杂规划(Complex Planning): 能够拆解和安排高复杂度的任务流程。
长时程执行(Long Time Horizon): 能够在更长的时间跨度内持续追踪并执行目标。
1.2 运行机制
基于 Tool Calling 的循环机制(Observation-Reasoning-Action)。
与 ReAct Agent 的共性:底层循环逻辑一致。
核心差异: 深度代理通过更优的工程设计(四大组件)解决了 ReAct 在长时程任务中规划混乱、执行力下降的问题。
第二章:关键组件 I —— 规划工具与上下文工程 (Planning & Context Engineering)
2.1 规划工具的本质
工具形态:如 TodoWrite 或任务清单。
“空操作”(No-op)策略: 并非执行实质性代码,而是作为一种上下文管理手段。
2.2 规划的作用机制
自我提醒(Self-Reminder): 在上下文中保留任务轨迹,防止模型“遗忘”。
条理性与进度感: 帮助代理在长任务中保持连贯性。
2.3 案例分析
Manus 案例: 使用 <planner_module> 和伪代码(Pseudocode)管理整体任务事件流。
Claude Code 案例: 利用 Todo 列表不断重新生成计划,刷新上下文认知。
第三章:关键组件 II —— 子代理架构 (Sub-Agents Architecture)
3.1 架构设计
主代理(Orchestrator)与子代理(Worker)的协作模式。
任务拆解与并行处理(如 Anthropic 的引用与搜索子代理)。
3.2 子代理的核心优势
上下文隔离(Context Isolation): 最关键特性。子代理的“兔子洞”探索不会污染主代理的上下文窗口。
专业能力聚焦(Specialized Expertise): 针对特定任务微调提示词或模型。
权限管理与安全性: 灵活配置工具访问权限(如文件读写权限隔离)。
3.3 实践应用
Manus 的“多模块”设计:浏览、编码、部署各司其职,由主脑统一调度。
第四章:关键组件 III —— 文件系统作为外部记忆 (File System as Memory)
4.1 上下文窗口的挑战
长上下文(128k+)的痛点:观测数据(Observation)过大、模型性能随长度增加而下降(Lost in the Middle)、成本高昂。
4.2 文件系统的角色转变
从存储到记忆(From Storage to Memory): 将文件系统视为“终极上下文载体”(Ultimate Context)。
上下文卸载(Offloading): 将大量非结构化数据存入文件,仅在上下文中保留引用(Reference)。
共享工作空间: 主代理与子代理之间的数据交换中心。
4.3 工具实现
Anthropic 的 str_replace 编辑工具与文件读写机制。
第五章:关键组件 IV —— 系统提示词工程 (Advanced System Prompts)
5.1 提示词的重要性
误区纠正:模型越强,提示词不仅不能省,反而需要更详细。
5.2 高级系统提示词结构
工具使用说明: 详尽的 Tool Use 指南。
Few-Shot Examples: 提供特定情境下的操作范例。
规模: 往往长达数页(如 Claude Deep Research 提示词)。
5.3 目的
确立行为规范,激活“深入”能力,确保工具调用的准确性。
3. 课程总结与核心洞察
上下文工程(Context Engineering)的定义: 将正确的信息,在正确的时间,填充进有限的上下文窗口的艺术。
深度代理的成功公式:
DeepAgent=ReActLoop+(详细Prompt+规划工具+子代理+文件系统)
未来趋势: 随着任务复杂度提升,对于“外部记忆”(文件系统)和“上下文隔离”(子代理)的依赖将愈发重要。
1. 课程简介
本课程旨在深入解析下一代 AI Agent——“深度代理”的运作机制。课程将从深度代理的定义出发,对比传统 ReAct 模式的局限性,重点剖析支撑深度代理长时间、复杂任务处理能力的四大关键组件(系统提示、规划工具、子代理、文件系统),并结合 Claude Code 和 Manus 等前沿案例进行实战讲解。
2. 教学大纲内容
第一章:深度代理基础 (Foundations of Deep Agents)
1.1 定义与核心能力
深入探索(Deep Exploration): 具备对主题进行垂直深挖的能力。
复杂规划(Complex Planning): 能够拆解和安排高复杂度的任务流程。
长时程执行(Long Time Horizon): 能够在更长的时间跨度内持续追踪并执行目标。
1.2 运行机制
基于 Tool Calling 的循环机制(Observation-Reasoning-Action)。
与 ReAct Agent 的共性:底层循环逻辑一致。
核心差异: 深度代理通过更优的工程设计(四大组件)解决了 ReAct 在长时程任务中规划混乱、执行力下降的问题。
第二章:关键组件 I —— 规划工具与上下文工程 (Planning & Context Engineering)
2.1 规划工具的本质
工具形态:如 TodoWrite 或任务清单。
“空操作”(No-op)策略: 并非执行实质性代码,而是作为一种上下文管理手段。
2.2 规划的作用机制
自我提醒(Self-Reminder): 在上下文中保留任务轨迹,防止模型“遗忘”。
条理性与进度感: 帮助代理在长任务中保持连贯性。
2.3 案例分析
Manus 案例: 使用 <planner_module> 和伪代码(Pseudocode)管理整体任务事件流。
Claude Code 案例: 利用 Todo 列表不断重新生成计划,刷新上下文认知。
第三章:关键组件 II —— 子代理架构 (Sub-Agents Architecture)
3.1 架构设计
主代理(Orchestrator)与子代理(Worker)的协作模式。
任务拆解与并行处理(如 Anthropic 的引用与搜索子代理)。
3.2 子代理的核心优势
上下文隔离(Context Isolation): 最关键特性。子代理的“兔子洞”探索不会污染主代理的上下文窗口。
专业能力聚焦(Specialized Expertise): 针对特定任务微调提示词或模型。
权限管理与安全性: 灵活配置工具访问权限(如文件读写权限隔离)。
3.3 实践应用
Manus 的“多模块”设计:浏览、编码、部署各司其职,由主脑统一调度。
第四章:关键组件 III —— 文件系统作为外部记忆 (File System as Memory)
4.1 上下文窗口的挑战
长上下文(128k+)的痛点:观测数据(Observation)过大、模型性能随长度增加而下降(Lost in the Middle)、成本高昂。
4.2 文件系统的角色转变
从存储到记忆(From Storage to Memory): 将文件系统视为“终极上下文载体”(Ultimate Context)。
上下文卸载(Offloading): 将大量非结构化数据存入文件,仅在上下文中保留引用(Reference)。
共享工作空间: 主代理与子代理之间的数据交换中心。
4.3 工具实现
Anthropic 的 str_replace 编辑工具与文件读写机制。
第五章:关键组件 IV —— 系统提示词工程 (Advanced System Prompts)
5.1 提示词的重要性
误区纠正:模型越强,提示词不仅不能省,反而需要更详细。
5.2 高级系统提示词结构
工具使用说明: 详尽的 Tool Use 指南。
Few-Shot Examples: 提供特定情境下的操作范例。
规模: 往往长达数页(如 Claude Deep Research 提示词)。
5.3 目的
确立行为规范,激活“深入”能力,确保工具调用的准确性。
3. 课程总结与核心洞察
上下文工程(Context Engineering)的定义: 将正确的信息,在正确的时间,填充进有限的上下文窗口的艺术。
深度代理的成功公式:
DeepAgent=ReActLoop+(详细Prompt+规划工具+子代理+文件系统)
未来趋势: 随着任务复杂度提升,对于“外部记忆”(文件系统)和“上下文隔离”(子代理)的依赖将愈发重要。
通过本课程的学习,学员将能够:
通过本课程的学习,学员将全面掌握测试数据生成和进化的技术,为RAG系统的性能验证和优化提供坚实的基础。从基础的数据生成到高级的进化策略,本课程将帮助学员建立高效的测试流程,确保RAG系统在多种场景中的高效表现。无论是在生产环境中的数据检索、信息查询还是内容生成,本课程都将帮助学员打造可靠的测试数据生成流程,推动RAG系统的持续优化与进步。
学习目标
- 理解如何从开源平台下载和管理模型权重,掌握处理大规模模型的基本技能
- 学习如何确保下载的模型权重能够在不同框架(如TensorFlow、PyTorch)中正确加载和使用
- 探索如何通过优化模型权重下载和管理流程,提升开发效率
- 提升在实际项目中下载、加载和应用开源模型权重的能力
知识点介绍
**开源模型权重概述**
- 了解开源模型权重的来源与常见平台(如Hugging Face、GitHub、TensorFlow Hub)
- 学习如何选择和下载适合项目需求的预训练模型权重
**模型权重下载流程**
- 掌握如何从平台下载模型权重,确保完整性与兼容性
- 理解如何使用平台提供的API或工具进行模型权重的下载与管理
**不同框架中的权重加载**
- 学习如何在不同框架(如TensorFlow、PyTorch)中加载和使用下载的模型权重
- 探索如何处理不同格式的权重文件,确保其与项目兼容
**下载优化与管理**
- 学习如何优化模型权重的下载过程,减少时间与带宽消耗
- 了解如何通过版本控制和缓存机制管理多个模型权重
**实际应用与场景分析**
- 探讨下载并使用开源模型权重在自然语言处理、计算机视觉、生成式AI等领域的应用
- 学习如何在项目中集成开源模型权重,提升模型性能并减少训练时间
通过这些知识点,学员将能够高效地下载、管理并应用开源模型权重,确保其在不同框架和应用场景中的有效性与兼容性。
学习目标
- 掌握如何将大型语言模型(LMs)加载到GPU上运行,提升模型推理和训练的速度
- 理解GPU与CPU加载模型的性能差异,学习如何优化GPU资源以支持大规模模型
- 学习如何在实际项目中管理和优化GPU资源,提高语言模型的性能和效率
- 提升在使用GPU进行大规模语言模型推理和训练的能力
知识点介绍
**GPU与LM的集成基础**
- 了解GPU在运行大型语言模型时的优势,学习如何选择合适的硬件资源
- 学习如何通过PyTorch、TensorFlow等框架将语言模型加载到GPU上
**GPU加载模型流程**
- 掌握如何使用代码实现将大型语言模型从CPU加载到GPU
- 学习使用 `.to(device)`(PyTorch) 或 `model.compile()`(TensorFlow)等方法指定设备
**优化模型加载与运行**
- 理解如何通过Batching、Mixed Precision和分布式训练等技术优化GPU上的模型加载
- 学习如何通过显存管理优化大规模模型的推理效率,避免显存溢出
**多GPU支持与并行处理**
- 学习如何在多GPU环境下运行语言模型,实现并行化计算,提升模型性能
- 理解如何使用Distributed Data Parallel (DDP)或模型并行化技术优化模型的运行效率
**性能监控与调优**
- 掌握如何通过GPU监控工具(如nvidia-smi)追踪GPU资源使用情况
- 学习如何通过分析和优化GPU使用效率,进一步提升模型运行性能
**实际应用场景**
- 探讨如何在自然语言处理、文本生成等任务中利用GPU加载和运行大型语言模型
- 学习如何通过GPU加速提高模型的推理和训练速度,缩短开发和部署时间
通过这些知识点,学员将能够熟练地将大型语言模型加载到GPU上运行,并通过优化策略提升模型在GPU上的推理和训练效率。
学习目标
- 掌握Hugging Face Sentence Transformers的基础知识及其在文本嵌入和相似性搜索中的应用
- 学习如何使用Sentence Transformers生成高质量的文本嵌入,支持各种自然语言处理任务
- 理解如何在实际项目中通过Sentence Transformers进行文本相似性匹配、分类、聚类等任务
- 提升在大规模文本处理和生成任务中使用Hugging Face Sentence Transformers的能力
知识点介绍
**Sentence Transformers基础**
- 了解Sentence Transformers的架构和功能,学习如何生成文本嵌入
- 学习如何通过Hugging Face模型库加载预训练的Sentence Transformers模型
**文本嵌入生成**
- 掌握如何使用Sentence Transformers生成高质量的句子和段落嵌入
- 学习如何在相似性搜索、问答系统和文本分类等任务中应用文本嵌入
**模型训练与微调**
- 了解如何通过Hugging Face的训练工具微调Sentence Transformers模型,适应特定任务
- 学习如何加载预训练模型并通过自定义数据集进行微调
**大规模相似性搜索与优化**
- 学习如何在大规模文本处理任务中优化文本相似性搜索的性能
- 理解如何通过索引结构(如Faiss)加速相似性搜索过程
**应用场景与性能优化**
- 探讨Sentence Transformers在文本聚类、语义搜索、推荐系统等领域的应用
- 学习如何根据任务需求优化模型的推理速度和嵌入生成质量
通过这些知识点,学员将能够使用Hugging Face Sentence Transformers进行文本嵌入生成,并在各种自然语言处理任务中灵活应用该工具,提升文本相似性搜索和分类任务的效率。
通过本课程的学习,学员将能够:
通过本课程的学习,学员将全面掌握量化技术的核心概念与实际应用,从静态量化、动态量化到量化感知训练等全方位了解量化的实现方法和优势。课程覆盖从基础到进阶的知识,帮助学员在计算资源有限的场景中有效部署深度学习模型,实现更高的效率和适用性。
Linkedin & CV 2024.12.08
地址
Level 10b, 144 Edward Street, Brisbane CBD(Headquarter)Level 2, 171 La Trobe St, Melbourne VIC 3000四川省成都市武侯区桂溪街道天府大道中段500号D5东方希望天祥广场B座45A13号Business Hub, 155 Waymouth St, Adelaide SA 5000Disclaimer
JR Academy acknowledges Traditional Owners of Country throughout Australia and recognises the continuing connection to lands, waters and communities. We pay our respect to Aboriginal and Torres Strait Islander cultures; and to Elders past and present. Aboriginal and Torres Strait Islander peoples should be aware that this website may contain images or names of people who have since passed away.
匠人学院网站上的所有内容,包括课程材料、徽标和匠人学院网站上提供的信息,均受澳大利亚政府知识产权法的保护。严禁未经授权使用、销售、分发、复制或修改。违规行为可能会导致法律诉讼。通过访问我们的网站,您同意尊重我们的知识产权。 JR Academy Pty Ltd 保留所有权利,包括专利、商标和版权。任何侵权行为都将受到法律追究。查看用户协议
© 2017-2025 JR Academy Pty Ltd. All rights reserved.
ABN 26621887572