logo
其他专业级📊 数据

Snowflake SnowPro Advanced: Data Engineer Certification

SnowPro Advanced Data Engineer 认证验证 Snowflake 高级数据工程能力,涵盖 Snowpipe Streaming、Streams/Tasks 增量 ELT、性能调优与数据转换最佳实践。

$0
考试费
65
题量
90m
考试时长
70/100
及格分
?
一句话定论 · 看情况

Snowflake shop 里的资深数据工程师值得考 — $375 换一张直接写进 JD 的 preferred 证书,薪资溢价实打实;普通数据工程师看公司栈,非 Snowflake 环境考了用不上。

会员权益

JR 会员全站通

一个会员解锁全部认证题库、课程折扣和专属工具

  • 全部认证题库免费刷
  • 课程最高 5 折优惠
  • AI 工具 & Chrome 插件
  • 优先预约 1v1 导师
查看会员方案

这张认证到底考什么

先把考试形式、适合人群、备考时长和学习范围讲清楚,再决定要不要投入时间。

SnowPro Advanced: Data Engineer(DEA-C02)是 Snowflake 认证体系里数据工程方向的最高阶证书,必须先持有有效的 SnowPro Core 证书才能报考(Core 过期 Advanced 也跟着失效,这是很多人栽过的坑)。考试费 $375 USD,65 道单选 + 多选题,115 分钟,通过线 750/1000,证书有效期 2 年。

这张证跟 Core 最大的区别是:Core 考"你知不知道 Snowflake 有什么",Advanced DE 考"你能不能用 Snowflake 解决一个真实的数据工程问题"。题目大量是场景题 — 给你一段业务需求或者一段 SQL + query profile 截图,让你在 4 个看起来都能跑的方案里挑最优解。死记硬背完全不顶用,必须有真实的 hands-on 才能判断 trade-off。

五大考试领域(2024 版 DEA-C02 权重)

  • Data Movement(~28%):Snowpipe(SQS event、REST API auto-ingest 两种模式)、Snowpipe Streaming(基于 SDK 的行级低延迟写入,跟批式 Snowpipe 是两回事)、COPY INTO 高级选项(ON_ERROR、VALIDATION_MODE、MATCH_BY_COLUMN_NAME)、External Tables + Iceberg Tables、COPY_HISTORY / PIPE_USAGE_HISTORY 的排错用法。
  • Performance Optimization(~22%):Clustering Key 的选择(高基数 + 过滤常用才值得)、AUTOMATIC_CLUSTERING 的成本评估、Search Optimization Service 适用场景(精确点查询、substring 搜索,不是范围查询)、物化视图 vs Dynamic Tables vs Result Cache 三种缓存/预计算机制的选型、Query Profile 里 Spillage / Exploding Join / Pruning 的识别。
  • Data Transformation(~27%):Streams(Standard / Append-only / Insert-only 三种、offset 推进机制、STALE_AFTER 过期)、Tasks(Task Tree/DAG、SYSTEM$STREAM_HAS_DATA() 防空跑、CRON 调度、Serverless Task vs User-managed)、Dynamic Tables(声明式 TARGET_LAG、自动增量刷新、什么时候比 Streams+Tasks 好用)、Snowpark Python/Java DataFrame API、UDF / UDTF / Stored Procedures。
  • Storage & Data Protection(~12%)Security(~11%):Time Travel 进阶配置(DATA_RETENTION_TIME_IN_DAYS、MIN_DATA_RETENTION_TIME_IN_DAYS 账户 vs 对象级)、Dynamic Data Masking policy、Row Access Policies、Tag-based Masking、External Tokenization。

为什么这张证含金量不低:Snowflake 客户池是 Capital One、Adobe、Disney、DoorDash、Pfizer 这类大 logo,2024-2026 连续三年北美数据工程师岗位里"Snowflake + dbt"技能组合需求同比增长 40%+。很多"Snowflake shop"在 Senior / Staff DE 的 JD 里会直接把 SnowPro Advanced: Data Engineer 写成 "Preferred Qualification",这是它跟一大堆泛数据工程认证的根本区别 — 它能直接过简历 ATS 关键词筛选

你会反复碰到的核心服务

Snowpipe 与 Snowpipe Streaming 配置与监控Standard Streams vs Append-only Streams 差异与适用场景Task Tree(DAG)编排与 SYSTEM$STREAM_HAS_DATA() 函数Dynamic Tables 声明式增量计算Clustering Keys 选择策略与 AUTOMATIC_CLUSTERINGUDF/UDTF 编写(JavaScript、Python、Java)Snowpark Python/Java API 数据处理COPY_HISTORY 函数与 Snowpipe 错误排查

学完以后你能带走什么

  • 熟练使用 Snowpipe Streaming 构建实时数据摄取管道
  • 掌握 Streams + Tasks / Dynamic Tables 构建增量 ELT 流程
  • 能够制定 Clustering Keys 策略并进行存储性能调优
  • 在 Snowpark 中使用 Python/Java 进行复杂数据处理

考试详情

考试代码
SnowPro Adv DE
发证机构
其他认证机构
时长
90 分钟
题目数
65
及格分
70/100
有效期
3
考试费用
$0 USD
题型
single-choice、multiple-choice
考试语言
English
官方页面

适合谁考

适合人群

  • 数据工程师:在 Snowflake 上构建和优化 ELT/ETL 数据管道
  • 现代数据栈(Modern Data Stack)从业者:使用 dbt + Snowflake 组合
  • 已持有 SnowPro Core 认证,希望深化数据工程专业能力的工程师
  • 数据平台工程师:负责数据摄取、转换和性能调优

开始前最好先有

  • 持有有效的 SnowPro Core 认证(必须)
  • 1-2 年以上 Snowflake 数据工程实战经验
  • 熟练掌握 SQL 和至少一门编程语言(JavaScript 或 Python)
  • 有构建生产级 ELT 管道的实际项目经验

值不值得考?职业价值

SnowPro Advanced Data Engineer 持证人的薪资区间、对应岗位、以及真实的职业影响。

澳洲
$150K-220KAUD
美国
$160K-250KUSD
中国
¥450K-800KCNY
新加坡
$130K-200KSGD
Senior Data EngineerStaff Data EngineerSnowflake Data EngineerAnalytics EngineerData Platform EngineerELT EngineerLead Data Engineer数据工程师(高级)数据平台架构师

SnowPro Advanced Data Engineer 的薪资溢价从哪里来

Core 是"入场券",Advanced DE 是"专家背书"。同样是 5 年经验的数据工程师,只有 Core 的人跟 Core + Advanced DE 的人在 Snowflake shop 的面试通过率差距非常明显 — 招聘方普遍把 Advanced DE 看作"这人真的懂 Streams/Tasks 调优、不是只会写 SELECT"的信号。2026 年北美 Senior DE 市场里,持有 Advanced DE 的候选人平均薪资比只有 Core 的高 15-25k USD。

各市场行情(2026 数据)

  • 澳洲 Sydney/Melbourne:Senior Snowflake DE AUD 150-190k,Staff / Lead 级别 195-240k。主要雇主:Macquarie、CBA、NAB 数据平台团队,Woolworths / Coles 的零售数据平台,以及 Canva、Atlassian 这类本土科技公司的 Analytics Engineering 团队。持 Advanced DE 的人在招聘市场上属于稀缺品,猎头会主动找。
  • 美国:Senior DE USD 160-220k,Staff 级别 220-280k,旧金山/西雅图/纽约溢价 15-25%。Capital One、Adobe、Disney Streaming、DoorDash、Instacart 这些大客户的 JD 里经常直接写 "SnowPro Advanced preferred"。Snowflake 自己的 Partner / PS 团队招人也几乎必看 Advanced 证。
  • 中国一线:北上深 RMB 45-80 万,主要在外资银行(汇丰、渣打、摩根)、四大咨询的数据服务部门、以及跨境 SaaS。国内互联网大厂基本不用 Snowflake(走 Flink + Iceberg + StarRocks 自研栈),这张证在字节/阿里数据团队几乎没有加分。
  • 新加坡:SGD 130-180k,DBS、Standard Chartered、OCBC 的数据平台团队在从本地数仓迁 Snowflake,Shopee / Lazada 的跨境业务线也在用。

适合考的人

  1. 已经在 Snowflake shop 干 1-2 年的 Mid/Senior DE:你每天都在写 Streams、调 warehouse、排错 Snowpipe,备考就是把零散的实战知识系统化。考完可以要求加薪或跳去另一家 Snowflake 客户公司拿 15-20% 涨幅,投入产出比极高。
  2. 想从 Analytics Engineer 升到 Senior DE 的人:你会 dbt + SQL,但平台工程这块(Snowpipe Streaming、Task DAG、Clustering 调优)是短板。Advanced DE 刚好逼你把这些补上。
  3. Snowflake Partner / 咨询顾问:Deloitte、Accenture、Capgemini、phData、Hakkoda 这类 Snowflake 金牌合作伙伴内部有明确的认证奖励制度,持 Advanced DE 是升 Senior Consultant 的硬门槛。
  4. 想走 Data Platform Architect 方向:Advanced DE 之后可以接 SnowPro Advanced: Architect,两证组合是做数据平台架构师的标配。

不建议考的人

  • 公司是 BigQuery / Redshift / Databricks 栈且短期不会迁 Snowflake:考了两年内基本用不上,Core 的概念还能迁移,Advanced 的细节(Stream offset、Snowpipe Streaming SDK)换平台完全没用。
  • 没过 Core 的人:Advanced 前置条件是有效的 Core 证书,别跳级。
  • Snowflake 实战经验少于 1 年的转行者:场景题会把你虐哭,光背考点过不了。建议先拿 Core,在工作里用 6-12 个月 Snowflake 再来考 Advanced。

备考节奏

有 AWS 实操经验

4-6

零基础切入

10-14

建议日投入

1.5-2 小时/天

学习路径预览

3
1
数据移动:Snowpipe、Streaming 与 COPY INTO 高级用法
40 min
2
数据转换:Streams/Tasks、Dynamic Tables 与 Snowpark
90 min
3
性能优化与综合模拟
100 min

分阶段备考路径

过来人总结的分阶段备考节奏,按周拆分,不是空话。

1

第一阶段:确认 Core 状态 + 梳理日常盲区(第 1 周)

先登 Snowflake Credentials portal 确认 Core 证书还在有效期内(过期了 Advanced 也会失效)。然后做一次"自我考纲 audit":打开官方 Exam Study Guide(DEA-C02),逐条标记每个 topic 你属于"每周都在用"、"听过但没用过"还是"完全不懂"。Streams 三种类型的差异、Snowpipe Streaming 跟批式 Snowpipe 的区别、Dynamic Tables vs 物化视图的选型 — 这三个是最高频的"以为自己会但其实讲不清楚"的盲区。这周不刷题,只列清单。

2

第二阶段:Snowflake 免费试用 + 核心特性 hands-on(第 2-4 周)

开一个 Enterprise Edition 30 天试用($400 credit 足够跑这轮练习)。必须亲手做这 6 个实验:(1) 配置 Snowpipe 从 S3 自动加载,故意投毒一条坏数据看 COPY_HISTORY 的 ERROR 信息;(2) 用 Snowpipe Streaming Java SDK(或 Snowflake Kafka Connector)写一个最小 demo,对比批式 Snowpipe 的延迟;(3) 用 Standard Stream + Task 构建一个增量 MERGE 管道,故意让 Stream offset 超过 STALE_AFTER 看会发生什么;(4) 把同一个管道用 Dynamic Table 重写,对比代码量和 TARGET_LAG 行为;(5) 在一张千万行表上测试 Clustering Key 加前后的 pruning 效果(用 SYSTEM$CLUSTERING_INFORMATION 和 query profile 对比);(6) 打开 Search Optimization Service 测试一个点查询的延迟变化。这 6 个实验做完,考纲 70% 的"为什么"你就通了。

3

第三阶段:官方学习资源 + 题库刷题(第 5-7 周)

Snowflake University 的 Advanced Data Engineer Learning Path(免费)是最权威的学习材料,直接按它的模块顺序过一遍,边看边在试用账户复现。配合 Tutorials Dojo Advanced DE 题库(质量最接近真题)或 Whizlabs。刷题时注意:Advanced 的错题复盘必须查官方文档而不是题库解析 — 题库解析有时会过时,Snowflake 每季度都会更新产品特性(比如 Iceberg Tables、Hybrid Tables、Cortex AI 这些新东西 2024-2025 陆续加入了考纲)。重点攻克 Streams offset 推进细节、Task DAG 失败重试策略、Snowpipe 错误代码识别、Clustering depth 解读。模考稳定 80%+ 再约考。

4

第四阶段:场景题冲刺 + Query Profile 阅读特训(考前 1-2 周)

Advanced 考试最难的是 query profile 分析题 — 会给你一张 profile 截图让你判断瓶颈和优化方案。考前这周每天至少做 5 道 profile 题,把这些关键信号背熟:**Bytes spilled to local storage** → warehouse 太小内存不够;**Bytes spilled to remote storage** → 严重警告,几乎肯定需要升 warehouse 或重写查询;**Partitions scanned / Partitions total 比例高** → pruning 差,考虑 Clustering Key;**Exploding join**(输出行数远大于输入)→ join key 有问题或 cardinality 爆炸;**Queue 时间长** → 需要 multi-cluster 或更大 warehouse。考前最后 2 天停止做新题,把之前所有错题重做一遍 + 把 Snowpipe / Streams / Tasks 的系统函数(SYSTEM$、PIPE_STATUS、COPY_HISTORY、TASK_HISTORY、STREAM_HAS_DATA)列一张速查表过一遍。

通过者的真实经验

过来人的备考时长、分数、以及踩过的坑。

我 Core 是 2024 年考的,3 年都在银行用 Snowflake + dbt 跑监管报表。考 Advanced 主要是公司推一个内部认证项目,考过报销还加 5k 年奖金。实测场景题比 Core 难一个档次 — 有一题给了一段 query profile,显示 remote disk spilling + queue 长,让我在 4 个选项里选优化方案,4 个看起来都沾边但只有一个是最优。备考过程中最大的收获是终于搞懂了 Append-only Stream 为什么在某些 CDC 场景比 Standard 便宜得多(不追踪 UPDATE/DELETE,offset 推进更简单)。回去把一条每 5 分钟跑一次的 Task 改成 Dynamic Table,代码少了 60% 还更稳定。

R. Tan863/1000
Senior Data Engineer(某澳洲银行数据平台团队) · 备考 5 周

我之前 3 年都是写 dbt model 的 Analytics Engineer,只在 Snowflake 上写 SELECT,从来没碰过 Snowpipe 或 Task。为了升 Senior DE 硬着头皮考 Advanced。最痛苦的是 Snowpipe Streaming 那块 — 完全是新领域,需要搞懂 Channel、Row Buffering、offset token 这些 SDK 概念。花了 2 周把 Java SDK 的 demo 自己跑通才算入门。Streams 三种类型(Standard / Append-only / Insert-only)的差异我考前一天还在混,最后靠一张手绘表格背下来。考完以后回去第一件事就是把原来用 Fivetran 拉 Kafka 数据的管道评估能不能换成 Snowpipe Streaming 自己直写 — 老板很开心。

M. Chen782/1000
Analytics Engineer → Senior DE 转型 · 备考 8 周

在一家 Snowflake 金牌合作伙伴公司做顾问,内部有明确规定 Senior Consultant 必须持 Advanced 级别证书之一。我选 DE 是因为客户项目最常接触 ETL 管道和性能调优。备考最大的感受是:Advanced 的题不靠背,靠经验 — 考题描述的场景有 80% 我在真实客户项目里都遇到过,比如"客户抱怨 Snowpipe 延迟从 1 分钟涨到 10 分钟怎么排查"这种,只要真的做过几次就能秒选。没有实战经验硬背完全没用。强烈建议至少 1 年 hands-on 再来考,不然 $375 打水漂。

P. Kumar821/1000
Snowflake Partner 咨询顾问 · 备考 4 周

同赛道认证对比

SnowPro Advanced Data EngineerSnowPro CoreDatabricks DEA
机构其他其他其他
级别专业级助理级助理级
考试费$0$0$0
时长90 min90 min90 min
题量656565
有效期3 3 3

备考技巧与常见失误

💡

**题型和时间** — 65 题 / 115 分钟 ≈ 每题 106 秒,比 Core 宽松。但 Advanced 场景题读题时间长(经常有长 SQL 或 query profile 截图),建议第一遍 70 分钟过完 + Mark 不确定的,剩 45 分钟专攻 Mark 题。不要在任何一题上纠结超过 3 分钟。

💡

**关键词条件反射** — "低延迟 / 秒级 / Kafka 流" → Snowpipe Streaming;"文件批量 / S3 event notification" → Snowpipe;"声明式增量 + join" → Dynamic Tables;"只追踪 INSERT" → Append-only Stream;"CDC 含 UPDATE/DELETE" → Standard Stream;"精确点查询 substring" → Search Optimization Service;"单表聚合自动刷新" → Materialized View;"remote disk spilling" → 升 warehouse;"partition scanned 100%" → 考虑 Clustering Key。

💡

**记死系统函数速查表** — SYSTEM$STREAM_HAS_DATA、SYSTEM$CLUSTERING_INFORMATION、SYSTEM$CLUSTERING_DEPTH、SYSTEM$PIPE_STATUS、SYSTEM$TASK_DEPENDENTS_ENABLE、COPY_HISTORY、PIPE_USAGE_HISTORY、TASK_HISTORY、VALIDATE(table, job_id)。这些函数考试经常直接问"用哪个函数能查 X"。

💡

**Query Profile 阅读必练** — 在 trial 账户里故意跑一些 bad query(超大 join、缺 WHERE 条件、warehouse 太小),亲眼看 local vs remote spilling、partitions pruned 的数字,建立直觉。考试一张 profile 截图能秒判断瓶颈这种能力光看 PPT 学不会。

💡

**Core 和 Advanced 考点重叠部分不要掉以轻心** — Time Travel、Zero-copy Clone、Secure Data Sharing 这些 Core 考过的内容在 Advanced 里会出"进阶版"题(比如跨账户 Share 的 consumer 能否用 Time Travel 查历史 — 不能)。别以为 Core 过了这些就稳。

💡

**关于 Iceberg Tables 和 Hybrid Tables** — 2024-2025 Snowflake 新 GA 的功能陆续进考纲。Iceberg Tables 让 Snowflake 直接读写开放格式的数据湖,Hybrid Tables(Unistore)支持行存 + 事务,对标 OLTP。考前一周刷一遍官方最新 release notes,题库可能还没覆盖。

💡

**2 年有效期 + 需要 Core 续期** — Advanced 证书 2 年有效,**且依赖 Core 证书的有效状态** — Core 过期,Advanced 也跟着失效。规划续期时要同时考虑两张证。一个省钱技巧:在 Advanced 到期前考 Recertification 版本或直接考另一张 Advanced(比如 Architect),可以自动刷新所有相关证书有效期。

⚠️

**Streams 的变更追踪机制理解错** — Stream 不是"表的副本"也不是"队列",它是一个**基于 offset 的元数据指针**,指向底层 Time Travel 里的一个时间点。当你 SELECT Stream 时看到的是"自上次消费后"的所有变更。**只有在一个 DML 事务中消费 Stream,offset 才会推进**(比如 INSERT INTO target SELECT * FROM stream 这种语句)。光 SELECT 查看不会推进 offset。另一个致命坑:Stream 的 offset 受 **STALE_AFTER** 保护,默认等于 DATA_RETENTION_TIME_IN_DAYS,**Stream 过期后无法恢复**,需要重建 — 考题常问"Stream 连续 15 天未消费 + 源表 retention 14 天会发生什么",答案是 Stream 变 STALE,后续读取报错。

⚠️

**Task DAG 的依赖和调度理解不到位** — Task Tree 里**只有根 Task 能设置 schedule**(CRON 或 interval),子 Task 通过 AFTER 子句链到父 Task 上,不能自己调度。Task 默认是**串行执行**(父跑完才跑子),想并行需要显式建多个 Task 分支。常见错误:以为在子 Task 上设 schedule 会生效(不会,会报错)。另一个高频错题:**SYSTEM$STREAM_HAS_DATA()** 必须放在 Task 的 **WHEN** 子句里用,不是在 Task body 里 IF,否则空跑也会消耗 credit。Serverless Task 和 User-managed Task(需要指定 warehouse)的计费模型也经常考。

⚠️

**Snowpipe 和 Snowpipe Streaming 混为一谈** — 这是两个完全不同的产品。**Snowpipe**(批式):基于文件,你上传文件到 stage → 事件触发 → Snowpipe 执行 COPY INTO,延迟约 1 分钟,按加载的文件数付费,使用 Snowflake 管理的 serverless 资源。**Snowpipe Streaming**:基于行,通过 Java SDK 或 Kafka Connector 直接写入表,不经过 stage 文件,延迟 **秒级**,按写入行数 + 计算时间付费,使用 client 端资源 + Snowflake 服务端 row buffering。考题会给场景让你选:有"上传 CSV 文件"关键词选批式 Snowpipe,有"Kafka / 实时事件流 / 亚秒级延迟"选 Snowpipe Streaming。它们也可以混用(lambda 架构),但计费和监控接口完全不同。

⚠️

**物化视图 vs Dynamic Tables vs Result Cache 选型不清** — **Result Cache**:Cloud Services 层免费的查询结果缓存,24 小时有效,源数据未变时命中,**零成本**但不可控。**物化视图(Materialized View)**:Enterprise Edition 起支持,自动后台刷新,**限制很严**(单表、不支持 joins、不支持 window functions、不支持 UDF),适合对单大表做聚合。**Dynamic Tables**:2023 年 GA 的新特性,**声明式增量计算**,支持 joins 和复杂 SQL,用 TARGET_LAG 控制新鲜度,是 Streams+Tasks 的简化替代。考题最爱出"一个需要 join 两张表 + 5 分钟新鲜度"的场景 — 物化视图做不了(不支持 join),Streams+Tasks 能做但代码复杂,Dynamic Tables 才是最优解。

⚠️

**Query Profile 误读导致优化方向错** — Profile 里最容易看错的几个信号:(1) **Local Disk Spilling** 不等于灾难,小量 spilling 正常;但 **Remote Disk Spilling** 几乎肯定是性能杀手,必须立刻升 warehouse 或重写查询。(2) **Partitions Scanned / Partitions Total** 比例接近 100% 不代表一定是坏事(小表本来就全扫),关键看绝对数字 + 扫描字节数。(3) **Exploding Join**(输出行数 >> 输入行数之和)通常是 join key cardinality 没算清楚或有笛卡尔积,不是 warehouse 问题,升 size 没用必须改 SQL。(4) **Bytes sent over the network** 高 → 可能有跨 region 数据传输或 Result Cache miss。考题会给 profile 截图让你二选一"该升 warehouse 还是该改 SQL",答错直接送分。

⚠️

**Clustering Key 的选择误区** — 不是所有表都该加 Clustering Key。选型原则:(1) 表足够大(> 1TB 才值得);(2) 查询常用这一列做过滤或 join;(3) 列的基数适中(太低如 gender 无效,太高如 uuid 维护成本爆炸);(4) 数据不是自然按这一列加载的。**AUTOMATIC_CLUSTERING** 开了之后 Snowflake 会后台持续重聚类,消耗 credit — 对写入频繁的表成本可能高于收益。考题爱出"这张表该加 Clustering 吗"的场景,答案经常是 "不加 / 先看 SYSTEM$CLUSTERING_INFORMATION 的 depth"。另一个坑:加 Clustering Key **不会立刻重组历史数据**,需要 ALTER TABLE ... RECLUSTER 或等自动聚类慢慢做。

⚠️

**UDF / UDTF / Stored Procedure 的边界混淆** — UDF(标量函数,一行输入一行输出)、UDTF(表函数,一行输入多行输出)、Stored Procedure(过程,可以执行 DML 和事务)三者能做什么不能做什么考试经常细抠。**UDF 不能有副作用**(不能 INSERT / UPDATE),**Stored Procedure 才能**。**EXECUTE AS CALLER vs EXECUTE AS OWNER** 决定了权限检查逻辑 — OWNER 模式下 proc 以创建者权限跑(常用于数据脱敏场景),CALLER 模式下以调用者权限跑。Python Snowpark 的 UDF 装饰器 @udf 和存储过程装饰器 @sproc 别搞混。

⚠️

**Time Travel 和 Fail-safe 的对象级配置** — 账户级 DATA_RETENTION_TIME_IN_DAYS 是默认值,**可以在 database / schema / table 级别覆盖**。**MIN_DATA_RETENTION_TIME_IN_DAYS**(账户级)可以强制下限防止用户把表的 retention 改到 0。临时表(TEMPORARY)和 transient 表**没有 Fail-safe**,transient 表 retention 最多 1 天 — 考题会问"创建 transient table 意味着省多少钱",答案是没有 Fail-safe 的 7 天存储成本。

FAQ

常见问题

如果你准备考 SnowPro Advanced Data Engineer,先从真题型练习开始。

65+ 练习题、章节学习路径、模考、错题复盘和 AI 导师都在备考页里。

进入备考页

$39 起 · 前 2 章可免费试学

你可能顺手也会看这些