Salesforce Application Architect 路径的四张前置证之一——如果你在 SF Partner 里做大 Org 的 LDV 优化和数据迁移,这张证是硬通货;如果你只管小 Org 或只做配置管理,$400 报名费买不到任何 ROI。
先把考试形式、适合人群、备考时长和学习范围讲清楚,再决定要不要投入时间。
Salesforce Certified Data Architect(官方代号 Data-Architect)是 Salesforce 认证体系里的架构师级(Architect tier)数据架构认证。它的定位非常明确:验证你能不能在 Salesforce 上处理千万级记录的 Org——当 Account 表有 2000 万行、查询开始超时、Data Loader 跑一晚上跑不完、Sharing Recalculation 一启动就锁表的时候,你知道该上 Skinny Table 还是 Custom Index、知道该把历史数据归档到 Big Object 还是 External Object、知道该用 Bulk API 2.0 还是 Informatica Cloud。
考试本身:60 题(单选 + 多选)+ 105 分钟 + 58% 及格 + $400 USD 报名费(Salesforce 架构师级证书统一价,是 Admin / App Builder 的两倍),挂了重考 $200。只有英文。考试领域权重:Large Data Volume Considerations(LDV)21% + Data Modeling 21% + Data Governance 14% + Master Data Management 14% + Salesforce Data Management 17% + Data Migration 13%。LDV 和数据建模是最硬核的两块,实际占到 50% 以上的决定性题目。
为什么这张证的 58% 及格线并不代表它简单:题目全部是多层场景题——会给你一段 200 词的业务背景("某银行 Org 有 1500 万 Opportunity 记录,Sharing 用 Role Hierarchy + 4 条 Sharing Rule,近期查询性能下降,需要……"),然后让你从 4-5 个看起来都合理的方案里选最优解。选项之间的差异往往在一个细节上(比如 Skinny Table 能放多少字段、External Object 能不能参与 Sharing Rule、Big Object 支不支持 Trigger)。没有 5 年实战经验基本是蒙。Salesforce 把及格线压到 58% 就是承认题目难度——和 Admin / App Builder 的 65% / 63% 不是一个量级。
在 Salesforce 认证体系的位置:Data Architect 是 Application Architect 资格的四张强制前置证之一(另外三张:Platform App Builder、Sharing & Visibility Architect、Platform Developer I)。考到 Application Architect 之后可以继续往上走 Certified Technical Architect(CTA)——CTA 是 Salesforce 生态的顶级认证,全球只有 2000 多人,澳洲不到 30 个。Data Architect 是通往 CTA 路径上最考数据库功底的一站。
证书维护:和 Admin / App Builder 一样走 Trailhead Release Maintenance,一年 3 次,每次完成 1 小时免费模块自动续期,不需要重考。
SF Data Architect 持证人的薪资区间、对应岗位、以及真实的职业影响。
Data Architect 的价值高度绑定"大 Org + SF Partner"两个条件,缺一不可。
澳洲市场 Data Architect 单证年薪带在 AUD 150,000-180,000,如果同时持有 Sharing & Visibility Architect 或已经拿到 Application Architect 资格,天花板能拉到 AUD 190,000-210,000(Sydney/Melbourne 大 Partner 的 Senior Solution Architect 岗位)。这个薪资带比单证 Admin / App Builder(AUD 90,000-120,000)明显高一档,原因是市场上真正能处理 LDV 和大数据迁移的人非常少——大部分 Salesforce 从业者一辈子做的 Org 都在 10 万记录以下,根本接触不到 Skinny Table、Custom Index 决策这种问题。
Application Architect 路径的核心门票:Data Architect + Platform App Builder + Sharing & Visibility Architect + Platform Developer I = Application Architect。这四张证缺一张都拿不到 Application Architect 资格。其中 Data Architect 是最硬的一张(题目最难、经验门槛最高)。拿到 Application Architect 之后,澳洲薪资带能到 AUD 180,000-230,000,而继续考到 **CTA(Certified Technical Architect)**之后能到 AUD 250,000-350,000+,但 CTA 全球通过率不到 10%,备考周期通常 2-3 年。
适合考 Data Architect 的三类人:
不适合考 Data Architect 的人:
过来人总结的分阶段备考节奏,按周拆分,不是空话。
Data Architect 备考的圣经是 Salesforce 官方那份《Best Practices for Deployments with Large Data Volumes》PDF 白皮书(在 developer.salesforce.com 搜 "Large Data Volumes" 就能找到)。这份 50+ 页的文档是所有 LDV 考点的原始出处,每一句话都可能变成考题。重点读三块:**(1) Skinny Table 的创建条件和限制**(必须由 Salesforce Support 手动创建、最多 100 个字段、不包含 multi-select picklist / long text area / encrypted field,只对 Account / Contact / Opportunity / Lead / Case / Custom Object 可用);**(2) Custom Index 的选择性阈值**(Standard Index 30% / 100 万行,Custom Index 10% / 33 万行,这两个数字必考);**(3) Sharing Recalculation 对 LDV 的影响**(Defer Sharing Calculation、Parallel Sharing Recalculation、Granular Locking)。这一阶段不要急着做题,先把白皮书读懂。
Trailhead 上搜 "Prepare for Your Salesforce Data Architect Credential" 官方 Trailmix。重点做这几个 module:**Data Modeling**、**Large Data Volumes**、**Data Management**、**Big Objects Basics**、**Salesforce Connect Basics**(考 External Object)、**Duplicate Management**(考 MDM)。不要跳过 Big Object 和 Salesforce Connect 的 hands-on——考试至少 4-5 道题考 **Big Object vs External Object vs Standard Custom Object** 的选型,三者的能力差异必须实操过才能记住(比如 Big Object 只能用 Async SOQL 查询、不能参与 Report、不能加 Trigger;External Object 通过 OData 连外部系统、记录不存在 Salesforce 里、不算 storage、不参与 Sharing Rule)。
把 **Data Loader / Bulk API 1.0 / Bulk API 2.0 / Composite API / REST API / Informatica Cloud / MuleSoft** 的选型矩阵做一张表背下来——考试的迁移题就是给你数据量 + 业务约束 + 转换复杂度,让你选工具。关键数字:Data Loader 50,000 行以下用 Serial、以上切到 Bulk API;Bulk API 2.0(2018 年后推出)取代 Bulk API 1.0 成为默认选择,不需要自己管 batch、并发自动处理,但**不支持 PK Chunking**(大于 1000 万行需要 chunking 时仍需用 Bulk API 1.0)。MDM 部分必须掌握三种模式:**Registry Style**(源系统保留主数据、Salesforce 只存指针)、**Consolidation Style**(Salesforce 从多个源系统聚合到 golden record,但不回写)、**Coexistence Style**(双向同步,最复杂最贵)。考试场景题会给你"某公司有 SAP + Workday + Salesforce 三个系统,客户数据需要统一……",让你选 MDM 模式。
至少做 3-4 套 60 题全真模考,稳定 72% 以上再去考(及格线 58% 但模考稳定到 72% 以上才有安全边际,真考题会比模考更偏场景判断)。**Data Skew 是最后一周的死磕点**——必须搞清楚三种 Skew 的机制:**(1) Account Data Skew**(超过 10,000 个 Child 记录挂在同一个 Account 下,导致 record locking 和 sharing recalculation 性能暴跌);**(2) Ownership Skew**(超过 10,000 条记录 Owner 是同一个 User,Role change 时会触发漫长的 sharing recalculation);**(3) Lookup Skew**(Custom Object 的 Lookup 字段指向同一个父记录超过 10,000 次,导致并发更新时锁冲突)。这三种 Skew 的区分点和解决方案(给 skew owner 分配到 Role Hierarchy 顶端、打散关联、使用 Public Group 替代直接 Owner)每次考试必出 2-3 道。
过来人的备考时长、分数、以及踩过的坑。
我做银行项目 4 年,Org 都在 2000 万记录以上,LDV 和数据迁移是日常工作。即便如此,备考 Data Architect 还是花了 8 周——题目对细节的要求变态。最典型的坑是 **Skinny Table 的字段限制**,我以为我很懂 Skinny Table,结果被考了一道"Skinny Table 能不能包含 multi-select picklist 字段",我选了 Yes(工作里从来没往 Skinny Table 里塞过 multi-select,也就没注意过这个限制),错了。Salesforce 官方文档白纸黑字写着 Skinny Table **不支持** multi-select picklist、long text area、encrypted text——这种细节必须反复读官方白皮书。考完对 Application Architect 路径开始攻坚,下一站 Sharing & Visibility Architect。
第一次考 61% 挂了(及格线 58%,擦线以为过了结果差几分),第二次花了 10 周重考。最大的问题是**第一次把太多时间花在 Flow 和 Apex 上**——Data Architect 完全不考 Flow、Apex、LWC,题目 100% 围绕数据库和架构决策。第二次备考重新梳理了 **Big Object vs External Object vs Standard Custom Object** 的对比表,背了不下 20 遍才记住所有差异点(Big Object 不能 Trigger、不能参与 Report、只能 Async SOQL;External Object 不算 storage、不参与 Sharing Rule、通过 OData 实时查外部系统;Standard Custom Object 啥都能干但 LDV 场景下性能崩)。第二次 65% 过了。$400 重考一次心疼了很久。
我的目标是 Application Architect,Data Architect 是四张前置证里最后一张。备考策略是**把 Salesforce 官方 LDV PDF 白皮书逐页精读 3 遍**,然后做了 4 套 Focus on Force 的模考(不是广告,但这家的 Data Architect 题库质量确实高于平均水平,场景题的复杂度接近真题)。真考场上让我惊喜的是 **Data Skew** 相关题目直接出了 3 道——Account Skew / Ownership Skew / Lookup Skew 三种各一道。如果你只记得"Skew 就是一个 Parent 下面挂太多 Child"这种粗略理解,绝对会在区分 Ownership Skew 和 Lookup Skew 上踩坑。Ownership Skew 的关键是 **User 持有太多记录**,Lookup Skew 是 **Custom Object 的 Lookup 字段指同一个父太多次**——不是一回事。
| SF Data Architect | SF Platform App Builder | SF Sharing & Visibility | |
|---|---|---|---|
| 机构 | Salesforce | Salesforce | Salesforce |
| 级别 | 专业级 | 助理级 | 专业级 |
| 考试费 | $400 | $200 | $400 |
| 时长 | 105 min | 105 min | 105 min |
| 题量 | 60 | 60 | 60 |
| 有效期 | 3 年 | 3 年 | 3 年 |
**把 Salesforce 官方 LDV PDF 白皮书读 3 遍**——这是所有 LDV 考点的原始出处。在 developer.salesforce.com 搜 "Best Practices for Deployments with Large Data Volumes" 就能下载。50 多页,读一遍 2 小时,3 遍 = 6 小时投资,能帮你拿下至少 15 道 LDV / 性能优化相关的题。任何其他备考资料都是这份白皮书的二手加工。
**关键数字必背**:Standard Index 选择性阈值 **30% / 100 万行**;Custom Index 选择性阈值 **10% / 33 万行**;Data Skew 阈值 **10,000 条**(Account / Ownership / Lookup 三种 skew 都是这个数);Skinny Table 最多 **100 个字段**;Bulk API 1.0 每个 batch 最多 **10,000 行**;Bulk API 2.0 每个 job 最多 **150 MB**。这些数字每次考试都会直接出。
**选型类题目用排除法**——Data Architect 的题目很少有"一眼看出正确答案"的,通常是 4 个选项看起来都能工作,你要找"最优"的那个。排除法的关键:先看业务约束里的"不能 X"(不能改 schema?不能加 storage?不能延迟?),用这些"不能"快速干掉 2 个选项,剩下 2 个再比细节。
**Big Object / External Object / Custom Object 三者的对比表**必须背熟到能在 30 秒内回答任何组合题:能不能 Trigger?算不算 storage?能不能 Report?能不能 Sharing Rule?能不能 Validation Rule?查询用什么(SOQL / Async SOQL / OData Callout)?每次考试至少 4-5 道题围绕这三者的边界。
**MDM 三种模式记忆口诀**:Registry = 指针(Salesforce 只存 ID 指到源系统);Consolidation = 汇总(从多源拉数据到 Salesforce 但不回写);Coexistence = 双向(最贵最复杂,双向同步)。考试场景题看到"源系统保持权威"→ Registry;"需要在 Salesforce 里看到完整 360 视图但数据源头还在 SAP"→ Consolidation;"客户在任何系统更新都要同步到所有系统"→ Coexistence。
**58% 及格不是让你放松的数字**——题目本身的难度决定了这个及格线。模考稳定 **72% 以上**再去考,因为真题比大部分模考更偏场景判断、更难。擦线 59-62% 过的人很常见,但 65% 以下的人回忆起来都说"有一半题是硬蒙的"。
**$400 USD 报名费 + $200 USD 重考费**——是 Salesforce 认证里最贵的之一。不要裸考,不要赶时间考。每个月只给自己一次模考机会,模考低于 70% 绝对不约真考。
**Skinny Table vs Custom Index 的使用场景混淆** — 两者都是 LDV 查询优化手段,但机制完全不同。**Skinny Table** 是 Salesforce 在后台为你创建一份"瘦"副本表,只包含你指定的少量字段(最多 100 个),查询时自动 join 这张副本避免读主表——适合**报表和 list view 反复查询同一批字段**的场景。Skinny Table **必须通过 Salesforce Support 开 Case 创建**,不能自己配,且不支持 multi-select picklist / long text area / encrypted text 字段。**Custom Index** 是在某个字段上建索引加速 WHERE 过滤——适合**某个字段经常被用在 WHERE 条件里**的场景。核心区分:Skinny Table 优化"读取哪些列",Custom Index 优化"定位哪些行"。考试场景题会让你根据"频繁报表查询 vs 按字段过滤查询"选择对应方案。
**Big Object vs External Object vs Standard Custom Object 的选型搞不清** — 这三者是 LDV 数据归档的核心选项,差异巨大。**Standard Custom Object**:能参与所有 Salesforce 功能(Trigger / Workflow / Flow / Report / Sharing / Validation Rule),但占用 data storage,不适合放几亿行历史数据。**Big Object**:用于 Salesforce 平台内部存储**几十亿行数据**(Archive / Audit Trail 场景),**不占用常规 data storage**(单独计费),但**不支持 Trigger / Workflow / Flow / Standard Report**,只能用 **Async SOQL** 查询(查询结果异步返回到 Chatter 或另一个 Object),不参与 Sharing Rule。**External Object**:通过 **Salesforce Connect(OData 协议)**实时连接外部系统(SAP / Oracle / S3),**数据不存在 Salesforce 里**,每次访问都走外部 API,不算 storage,但**不参与 Sharing Rule、不能加 Trigger、每次访问有延迟**,且有 API 调用限制。考试会给你场景:"需要归档 5 年以上的历史订单数据,每月查询不超过 10 次"——答案是 Big Object(数据量大 + 查询频率低 + 不需要 Trigger)。
**Data Skew 的三种类型混为一谈** — Account Skew / Ownership Skew / Lookup Skew 是完全不同的三个问题,考试会分开考。**Account Skew**:超过 **10,000 个 child 记录**(通常是 Contact / Opportunity / Case)挂在同一个 Account 下。问题:父 Account 更新时需要级联更新所有 child 的 sharing,导致 record locking 和漫长的 sharing recalculation。解决:把 skew 账户拆开,或者用 "catch-all" account 时把它放到一个专门的 Role 顶端。**Ownership Skew**:超过 **10,000 条记录 Owner 是同一个 User**(通常是 integration user 或 default owner)。问题:这个 User 的 Role 一改动,sharing recalculation 会持续数小时甚至锁住整个 Org。解决:把 integration user 放到 Role Hierarchy 最顶端(上面没有 Role 就不触发递归),或者多用几个 user 分散 ownership。**Lookup Skew**:Custom Object 的 **Lookup 字段指向同一个父记录超过 10,000 次**。问题:并发更新 child 记录时会频繁锁父记录导致 row lock errors。解决:把 lookup 打散到多个父记录,或者优化业务流程避免并发。**混淆这三种是考试最高频的扣分点**。
**Lookup vs Master-Detail 在 LDV 场景下的权衡反了** — 常规知识告诉你 Master-Detail 有级联删除、Roll-up Summary、子记录继承父记录 Sharing。但在 **LDV 场景下**,Master-Detail 会放大 **Account Skew** 问题——因为子记录**强制继承**父记录的 sharing,一个 Account 下挂太多 Master-Detail 子记录会直接触发 sharing recalculation 风暴。LDV 场景下**反而推荐用 Lookup + 自己写 Apex Trigger 维护汇总**,避开 Salesforce 的自动 sharing recalculation。考试会出场景题:"某 Org 需要在 Account 下挂 5 万条 Contact 记录……"——答案不是 Master-Detail,而是 Lookup + 优化 sharing 策略。这个点反直觉,一定要记住。
**Bulk API 2.0 vs Bulk API 1.0 以为只是版本号升级** — Bulk API 2.0 是 2018 年后推出的新版本,**默认推荐用 2.0**。两者的关键差异:**Bulk API 2.0** 不需要自己创建和管理 batch(你只要上传 job,Salesforce 自动 chunk 和并发)、最大单 job 150 MB、支持 CSV、API 更简单、错误处理更清晰。**Bulk API 1.0** 需要自己创建 job、自己切 batch(每个 batch 最多 10,000 行)、支持 **PK Chunking**(把查询按主键切成小块)、支持 XML + CSV、能精细控制并发。**关键考点**:当数据量超过 **1000 万行**需要用 PK Chunking 优化查询时,**必须用 Bulk API 1.0**(2.0 不支持 PK Chunking)。Data Loader 底层默认走 Bulk API 2.0,但大 Org 迁移时通常切到 Informatica Cloud 或自己写 Bulk API 1.0 脚本。
**Defer Sharing Calculation 的使用场景不知道** — 当你需要**批量更新大量记录**(比如迁移 500 万条数据、或者 Role Hierarchy 重组)时,Salesforce 会在每次 update 后重新计算 sharing,导致作业跑几十个小时。**Defer Sharing Calculation** 是 Salesforce 提供的一个机制:你先开 Case 让 Salesforce Support 打开这个 feature,然后在数据迁移前**暂停 sharing 计算**,等所有数据导入完成后再**手动触发一次全量 sharing recalculation**——能把迁移时间从几十小时压缩到几小时。考试会出场景题:"数据迁移要导入 1000 万 Opportunity,怎么优化 sharing 性能……"——答案包含 Defer Sharing Calculation。这是 LDV 迁移的经典手段,必须知道。
**Duplicate Rules vs Matching Rules 的关系搞混** — **Matching Rule** 定义"什么叫两条记录重复"(比如 Email + Phone 一样就算重复),是一个匹配条件的定义。**Duplicate Rule** 定义"匹配到重复记录时做什么"(Block / Allow with Alert / Report),并且**引用一个或多个 Matching Rule** 作为判定依据。两者是"规则 + 策略"的关系,必须配对使用。考试高频考点:Salesforce 内置了 3 个标准 Matching Rule(Account / Contact / Lead),你可以直接用或者自己创建 Custom Matching Rule(最多 5 个 active)。MDM 相关题目几乎都会出一道 Duplicate Rule 配置题。