logo

1. GPT-5.5 全量上线:Terminal-Bench 2.0 拿 82.7%、SWE-Bench Pro 58.6%

GPT-5.5 上线

一句话: OpenAI 04-23 发 GPT-5.5、04-24 同步上 API,Codex 直接全量切换,token 效率比 GPT-5.4 显著提升。

OpenAI 04-23 正式发布 GPT-5.5,04-24 把 GPT-5.5 和 GPT-5.5 Pro 同步推上 API。ChatGPT Plus / Pro / Business / Enterprise 全部直接用上,Codex 也同步切到 GPT-5.5。两个核心 benchmark 数字很硬:Terminal-Bench 2.0 从 GPT-5.4 的 75.1% 涨到 82.7%;SWE-Bench Pro(真实 GitHub issue 解决率)58.6%。这两个 benchmark 都是 agent 级别的复合任务测试,不是单轮问答。

真正值得专门拎出来讲的不是 benchmark,是效率。GPT-5.5 单 token 延迟和 GPT-5.4 完全持平,但单位 token 完成的任务量、以及完成同等任务所需 token 数都明显下降。换算下来,每兆瓦能耗的 token 输出量提升大约 50 倍。这个数字背后的潜台词是:GPT-5.5 在企业级长任务场景里的实际成本比明面定价更低 —— 同样跑一个 agentic 工作流,GPT-5.5 可能用 GPT-5.4 一半的 token 就跑完,再贵的单价也算下来更便宜。NVIDIA 这次罕见地写了一篇 blog 站台 GPT-5.5 在 Codex 里跑在他们硬件上 —— 信号很明确:OpenAI / Nvidia 这条上下游绑定在 agent 时代继续加深。

对工程师的实操线索:第一,本周把所有跑在 GPT-5.4 上的 system prompt 拿到 GPT-5.5 上重新 benchmark —— 模型换代之后,原本调好的 prompt 不一定最优,特别是 chain-of-thought / 工具调用顺序这些细节。第二,做 Coding Agent / 自动化重构 / RPA 的,把 GPT-5.5 Pro 设为默认 fallback,对长程任务(10+ step)稳定性改善显著。第三,做 RAG 或 customer support agent 的,注意 GPT-5.5 在 computer use 这个能力上的提升 —— 配合 OpenAI 的 Operator 模式,可以接管浏览器/桌面应用做 end-to-end 任务。

> 来源: OpenAI 官方 · CNBC · MacRumors · NVIDIA Blog

---

2. Nvidia 收盘市值破 5 万亿美元:三年涨 14 倍,AI infra 资本周期才走到一半

Nvidia 5 万亿市值

一句话: 04-24 收盘 208.27 美元 / 涨 4.3%,是史上第三家市值过 5 万亿的公司,前两家苹果微软都花了几十年。

Nvidia 04-24(周五)收盘 208.27 美元、涨 4.3%,市值首次冲过 5 万亿美元,是人类商业史上第三家迈过这条线的公司,前两家是苹果和微软。差异在于时间:苹果和微软分别花了几十年从创业走到 5 万亿,Nvidia 从 2022 年底的不到 4000 亿美元市值起步、用了大约 3 年时间冲到 5 万亿,期间累计新增市值超过 4.5 万亿美元。这是过去 10 年最贵的一笔投资 —— 比所有 AI 应用层公司估值加起来还高。导火索是 Intel 周四盘后财报远超预期,第二天 Intel 涨 24% 创下 1987 年以来最大单日涨幅,整个芯片板块被点燃。

把这个数字放进 AI infra 的供需大表里看就更清晰了。Nvidia 自己给的指引:Blackwell 系统已经卖断到 2026 年年中、单卡价格大约 4 万美元;Blackwell + Vera Rubin 这两代架构在 2026-2027 累计销售额预计达到 1 万亿美元。需求端,所谓 hyperscaler 四家(Google / Microsoft / Meta / Amazon)以及 OpenAI / Anthropic / xAI 这些模型公司,2026 年合计承诺的 AI 基建支出已经超过 6500 亿美元。换句话说:未来 24 个月 AI infra 的需求侧不会软,5 万亿不是泡沫顶,是中段。

对工程师和团队的实操线索:第一,硬件赛道的招聘会持续狂热 —— chip design、advanced packaging、co-packaged optics、advanced thermal、网络芯片、HBM 设计等岗位接下来 12 个月会出现明显薪资上行;硬件背景转 AI infra 是被严重低估的窗口。第二,做 AI 应用层的注意上游传导:GPU 供给瓶颈会逐季缓解(本周 Google 把 TPU v8 拆成训练 / 推理两条线就是这个方向),LLM API 单价大概率全行业再降一档 —— 把 6 个月前的 API 成本测算重新做一遍,毛利模型可能要改。第三,从「单押 Nvidia」变成「关注 Broadcom / TSMC / Marvell / 各家云的 infra 资本开支」是更稳的姿势。

> 来源: CNBC · Benzinga · The Motley Fool

---

3. Google Cloud Next '26:TPU v8 拆训练 / 推理两条线,Sunfish + Zebrafish 联手围攻 Nvidia

Google TPU v8 拆分

一句话: Sunfish (Broadcom 设计 / TSMC 2nm / 2027 量产) 做训练,Zebrafish (MediaTek 设计 / MoE 推理优化) 做推理。

Google Cloud Next '26 04-22 至 04-24 在拉斯维加斯 Mandalay Bay 开幕,最硬的一条新闻不是 Gemini 模型更新,是 TPU v8 路线图被彻底重构。之前 7 代 TPU 都是「一颗芯片通吃训练和推理」,TPU v8 第一次拆成两个独立产品线:Sunfish (官方代号 TPU 8t) 由 Broadcom 设计、目标 TSMC 2nm、2027 年底量产,专门做大模型训练,对位 Nvidia Vera Rubin;Zebrafish (TPU 8i) 由 MediaTek 设计、堆更多 HBM、配套全新的 Boardfly 互联协议,专门做 MoE 模型的低延迟推理。同时 Google 拉了 Marvell 进 supply chain —— 一颗 AI 芯片,用三家供应商联合设计,这是行业第一次。

为什么这件事比 Gemini 模型更新重要?因为它说明 Google 的认知变了:训练和推理已经是两个 fundamentally 不同的 workload,必须用不同的芯片架构去优化。MoE 模型流量结构里,推理 token 已经远多于训练 token,「为推理专门设计一颗芯片」的 ROI 完全成立。Google 自己给的数字:TPU 8t 在大规模训练场景下价格性能比 Ironwood 提升 2.7 倍;TPU 8i 在 MoE 推理场景下每美元性能提升 80%。换算到云上 API 价格 —— Vertex AI 跑 Gemini 的成本接下来一年会被压低一档,Gemini API 价格大概率比 GPT 系列继续拉开身位。配套 Google 推出 Gemini Enterprise Agent 平台、Vertex AI Agent Builder 2.0、A2A 协议联盟扩到 150+ 组织,整套打法很清晰:靠自研芯片把「企业级 multi-agent 编排」这块市场打下来。

对工程师的实操线索:做 LLM serving 的本周就盯 vLLM、SGLang、TensorRT-LLM 在 TPU 8i 上的适配进度 —— 谁先把推理 stack 跑通,谁就吃下 Google Cloud 这一波从 Nvidia 切到 TPU 的企业客户。做 Agent 编排的(CrewAI / AutoGen / LangGraph 这类框架)必须把 A2A 协议加入下一个 sprint,A2A + MCP 已经是事实标准,不接就被边缘化。求职端 Google Cloud / DeepMind / Vertex AI 三块的招聘会激进打开,特别是「ML infra + 大模型 serving + Agent 编排」这种复合背景。

> 来源: Wccftech · The Next Platform · Oplexa - Google Cloud Next 2026 Recap

---

4. 腾讯阿里同时抢入股 DeepSeek:200 亿美元估值首轮融资,腾讯 20% 报价被拒

DeepSeek 融资

一句话: DeepSeek 启动成立以来首轮外部融资,目标募资 ≥ 3 亿美元、估值 ≥ 200 亿美元,腾讯报价 20% 股权被 DeepSeek 拒。

Bloomberg 和 The Information 04-22 几乎同时披露:DeepSeek 启动了成立以来第一轮外部融资,目标募资 3 亿美元以上、估值不低于 200 亿美元。腾讯和阿里同时进场谈判,腾讯一上来就报价收购 20% 股权 —— 被 DeepSeek 拒绝,原因是让出这么大份额会失去对模型路线的控制。阿里同步在谈,但具体条款没披露。整个估值的锚是同样未上市的 MiniMax 约 400 亿美元 —— DeepSeek 内部认为自己应该至少匹配一半。重要背景:DeepSeek 在此之前从来没拿过外部投资人的钱,所有运营成本都是创始人梁文锋的幻方量化对冲基金输血。

为什么这件事的重量级超过普通融资新闻?三个层面。第一,这是国内顶尖开源大模型公司第一次接受大厂战略投资 —— 之前 DeepSeek 一直坚持独立路线、宁可慢也要拒绝外部资本。立场转变的真实原因不是钱,是算力。这周 V4-Pro 开源放出 1.6T 参数 + 1M 上下文,下一步要做 V5 + 企业级商业化部署,需要的 GPU 配额已经超过幻方自己能撑的量级。阿里和腾讯能给的核心资源是数据中心 GPU 槽位,不是现金。第二,腾讯阿里这次同台竞价,本质是抢「中国版 OpenAI 战略股东」这个稀缺位置 —— Microsoft 之于 OpenAI 的故事,国内大厂都想复制一遍。第三,估值信号传导:DeepSeek 200 亿 + MiniMax 400 亿 + 字节 / 月之暗面跟上,国内大模型一级市场估值天花板被实质性抬起来。

对中国 AI 生态的实操判断:如果腾讯入股成,DeepSeek 模型会更深嵌入腾讯云 + 微信 + QQ 生态;如果阿里赢,会接进通义千问的开放平台 + 阿里云 PAI,企业 ToB 部署成本会有显著下降。第三种可能(DeepSeek 真正想要的)是腾讯阿里各拿小份额互相制衡。对国内 AI 应用层的工程师:本周开始关注 DeepSeek V4 在阿里云 / 腾讯云的部署节奏 —— 谁家先上、价格多少,会直接决定接下来 6 个月你应该在哪家云上做 RAG / Agent 部署

> 来源: Bloomberg · The Information · DIGITIMES

---

5. 白宫行政令进入执行:司法部组 AI Litigation Task Force 起诉各州 AI 法,全球监管同步松绑

白宫 AI 行政令

一句话: 联邦政策直接 preempt 各州 AI 立法,司法部成立 AI Litigation Task Force 逐州起诉,欧盟 Digital Omnibus 同步推迟合规。

Cooley 律所 04-24 发布的 50 州 AI 立法盘点报告,把过去 4 个月美国 AI 监管的实质性变化整合到了一张表里。核心结论:去年 12 月特朗普签署的行政令(联邦政策 preempt 各州 AI 立法)在 2026 年 4 月进入实质执行阶段。司法部专门成立了 AI Litigation Task Force,对加州、科罗拉多、纽约这些已经通过严苛 AI 法案的州逐个发起诉讼,主要理由是「各州的 AI 监管不当干预州际商业,违宪」。直接结果是:多个州主动延后或撤回原本计划 2026 年生效的 AI 法案 —— Colorado AI Act、Texas TRAIGA、纽约 NYC AEDT 这些都在被重新审视,部分合规截止期已经被推到 2027 甚至 2028。

把这件事放进全球监管图景里看就更清晰。同期欧盟在推进 Digital Omnibus 提案,核心是把 EU AI Act 高风险条款的合规截止日整体推后到 2027-2028。Bloomberg 04-20 报道 Siemens CEO Roland Busch 公开喊话:如果欧盟不放松监管,西门子的 AI 投资就转去美国和中国,不在欧盟落地。这种「监管套利」正在成为大型企业的明牌策略 —— 哪个市场对 AI 部署友好,资本和团队就去哪。这一波信号合在一起读:美国从「各州各自立法」切到「联邦统一接管 + 鼓励创新优先」;欧盟从「全球最严」往后退一档;中国本来就在加速给大模型颁牌照。三大监管区同步松绑,AI 应用层从合规角度看进入了一个明显的窗口期。

对工程师和团队的实操线索:做 AI compliance / AI risk / legal tech 的工程师,本周开始重新审视合规框架 —— 之前为 Colorado AI Act、NYC AEDT、Illinois BIPA-like 法案做的检测 / 文档 / 偏见审计模块,相当一部分会被废除或大幅简化。把对齐基线切回到联邦层(NIST AI Risk Management Framework + 白宫行政令)。做 startup 的:美国市场监管摩擦成本下降,特别是 HR / 招聘 / 信用评分 / 保险定价 / 教育评估这些之前被 EEOC + 各州法律严管的高风险场景,重新可以做了。但欧盟市场仍然必须按 EU AI Act 走。

> 来源: Cooley LLP · Bloomberg · Eversheds Sutherland

---

关注 JR Academy

想每天 9 点收到 AI 日报?关注 JR Academy 公众号 · 回复「AI 日报」自动订阅。历史日报全开放:jiangren.com.au/blog

学完今天 5 条新闻,建议同步看:

JR Academy · Blog职业洞察

GPT-5.5 上线 / Nvidia 5T 市值 / Google TPU v8 拆训推 / 腾讯阿里抢 DeepSeek / 白宫覆盖各州 AI 法

周末三件硬事:OpenAI 04-23 发 GPT-5.5、Codex 直接换上、Terminal-Bench 2.0 跑到 82.7%;Nvidia 04-24 收盘市值首破 5 万亿美元、3 年涨 14 倍;Google Cloud Next '26 把 TPU v8 拆成 Sunfish (Broadcom 训) + Zebrafish (Med...

发布日期
阅读时长4 分钟
作者

1. GPT-5.5 全量上线:Terminal-Bench 2.0 拿 82.7%、SWE-Bench Pro 58.6%

GPT-5.5 上线

一句话: OpenAI 04-23 发 GPT-5.5、04-24 同步上 API,Codex 直接全量切换,token 效率比 GPT-5.4 显著提升。

OpenAI 04-23 正式发布 GPT-5.5,04-24 把 GPT-5.5 和 GPT-5.5 Pro 同步推上 API。ChatGPT Plus / Pro / Business / Enterprise 全部直接用上,Codex 也同步切到 GPT-5.5。两个核心 benchmark 数字很硬:Terminal-Bench 2.0 从 GPT-5.4 的 75.1% 涨到 82.7%;SWE-Bench Pro(真实 GitHub issue 解决率)58.6%。这两个 benchmark 都是 agent 级别的复合任务测试,不是单轮问答。

真正值得专门拎出来讲的不是 benchmark,是效率。GPT-5.5 单 token 延迟和 GPT-5.4 完全持平,但单位 token 完成的任务量、以及完成同等任务所需 token 数都明显下降。换算下来,每兆瓦能耗的 token 输出量提升大约 50 倍。这个数字背后的潜台词是:GPT-5.5 在企业级长任务场景里的实际成本比明面定价更低 —— 同样跑一个 agentic 工作流,GPT-5.5 可能用 GPT-5.4 一半的 token 就跑完,再贵的单价也算下来更便宜。NVIDIA 这次罕见地写了一篇 blog 站台 GPT-5.5 在 Codex 里跑在他们硬件上 —— 信号很明确:OpenAI / Nvidia 这条上下游绑定在 agent 时代继续加深。

对工程师的实操线索:第一,本周把所有跑在 GPT-5.4 上的 system prompt 拿到 GPT-5.5 上重新 benchmark —— 模型换代之后,原本调好的 prompt 不一定最优,特别是 chain-of-thought / 工具调用顺序这些细节。第二,做 Coding Agent / 自动化重构 / RPA 的,把 GPT-5.5 Pro 设为默认 fallback,对长程任务(10+ step)稳定性改善显著。第三,做 RAG 或 customer support agent 的,注意 GPT-5.5 在 computer use 这个能力上的提升 —— 配合 OpenAI 的 Operator 模式,可以接管浏览器/桌面应用做 end-to-end 任务。

> 来源: OpenAI 官方 · CNBC · MacRumors · NVIDIA Blog

---

2. Nvidia 收盘市值破 5 万亿美元:三年涨 14 倍,AI infra 资本周期才走到一半

Nvidia 5 万亿市值

一句话: 04-24 收盘 208.27 美元 / 涨 4.3%,是史上第三家市值过 5 万亿的公司,前两家苹果微软都花了几十年。

Nvidia 04-24(周五)收盘 208.27 美元、涨 4.3%,市值首次冲过 5 万亿美元,是人类商业史上第三家迈过这条线的公司,前两家是苹果和微软。差异在于时间:苹果和微软分别花了几十年从创业走到 5 万亿,Nvidia 从 2022 年底的不到 4000 亿美元市值起步、用了大约 3 年时间冲到 5 万亿,期间累计新增市值超过 4.5 万亿美元。这是过去 10 年最贵的一笔投资 —— 比所有 AI 应用层公司估值加起来还高。导火索是 Intel 周四盘后财报远超预期,第二天 Intel 涨 24% 创下 1987 年以来最大单日涨幅,整个芯片板块被点燃。

把这个数字放进 AI infra 的供需大表里看就更清晰了。Nvidia 自己给的指引:Blackwell 系统已经卖断到 2026 年年中、单卡价格大约 4 万美元;Blackwell + Vera Rubin 这两代架构在 2026-2027 累计销售额预计达到 1 万亿美元。需求端,所谓 hyperscaler 四家(Google / Microsoft / Meta / Amazon)以及 OpenAI / Anthropic / xAI 这些模型公司,2026 年合计承诺的 AI 基建支出已经超过 6500 亿美元。换句话说:未来 24 个月 AI infra 的需求侧不会软,5 万亿不是泡沫顶,是中段。

对工程师和团队的实操线索:第一,硬件赛道的招聘会持续狂热 —— chip design、advanced packaging、co-packaged optics、advanced thermal、网络芯片、HBM 设计等岗位接下来 12 个月会出现明显薪资上行;硬件背景转 AI infra 是被严重低估的窗口。第二,做 AI 应用层的注意上游传导:GPU 供给瓶颈会逐季缓解(本周 Google 把 TPU v8 拆成训练 / 推理两条线就是这个方向),LLM API 单价大概率全行业再降一档 —— 把 6 个月前的 API 成本测算重新做一遍,毛利模型可能要改。第三,从「单押 Nvidia」变成「关注 Broadcom / TSMC / Marvell / 各家云的 infra 资本开支」是更稳的姿势。

> 来源: CNBC · Benzinga · The Motley Fool

---

3. Google Cloud Next '26:TPU v8 拆训练 / 推理两条线,Sunfish + Zebrafish 联手围攻 Nvidia

Google TPU v8 拆分

一句话: Sunfish (Broadcom 设计 / TSMC 2nm / 2027 量产) 做训练,Zebrafish (MediaTek 设计 / MoE 推理优化) 做推理。

Google Cloud Next '26 04-22 至 04-24 在拉斯维加斯 Mandalay Bay 开幕,最硬的一条新闻不是 Gemini 模型更新,是 TPU v8 路线图被彻底重构。之前 7 代 TPU 都是「一颗芯片通吃训练和推理」,TPU v8 第一次拆成两个独立产品线:Sunfish (官方代号 TPU 8t) 由 Broadcom 设计、目标 TSMC 2nm、2027 年底量产,专门做大模型训练,对位 Nvidia Vera Rubin;Zebrafish (TPU 8i) 由 MediaTek 设计、堆更多 HBM、配套全新的 Boardfly 互联协议,专门做 MoE 模型的低延迟推理。同时 Google 拉了 Marvell 进 supply chain —— 一颗 AI 芯片,用三家供应商联合设计,这是行业第一次。

为什么这件事比 Gemini 模型更新重要?因为它说明 Google 的认知变了:训练和推理已经是两个 fundamentally 不同的 workload,必须用不同的芯片架构去优化。MoE 模型流量结构里,推理 token 已经远多于训练 token,「为推理专门设计一颗芯片」的 ROI 完全成立。Google 自己给的数字:TPU 8t 在大规模训练场景下价格性能比 Ironwood 提升 2.7 倍;TPU 8i 在 MoE 推理场景下每美元性能提升 80%。换算到云上 API 价格 —— Vertex AI 跑 Gemini 的成本接下来一年会被压低一档,Gemini API 价格大概率比 GPT 系列继续拉开身位。配套 Google 推出 Gemini Enterprise Agent 平台、Vertex AI Agent Builder 2.0、A2A 协议联盟扩到 150+ 组织,整套打法很清晰:靠自研芯片把「企业级 multi-agent 编排」这块市场打下来。

对工程师的实操线索:做 LLM serving 的本周就盯 vLLM、SGLang、TensorRT-LLM 在 TPU 8i 上的适配进度 —— 谁先把推理 stack 跑通,谁就吃下 Google Cloud 这一波从 Nvidia 切到 TPU 的企业客户。做 Agent 编排的(CrewAI / AutoGen / LangGraph 这类框架)必须把 A2A 协议加入下一个 sprint,A2A + MCP 已经是事实标准,不接就被边缘化。求职端 Google Cloud / DeepMind / Vertex AI 三块的招聘会激进打开,特别是「ML infra + 大模型 serving + Agent 编排」这种复合背景。

> 来源: Wccftech · The Next Platform · Oplexa - Google Cloud Next 2026 Recap

---

4. 腾讯阿里同时抢入股 DeepSeek:200 亿美元估值首轮融资,腾讯 20% 报价被拒

DeepSeek 融资

一句话: DeepSeek 启动成立以来首轮外部融资,目标募资 ≥ 3 亿美元、估值 ≥ 200 亿美元,腾讯报价 20% 股权被 DeepSeek 拒。

Bloomberg 和 The Information 04-22 几乎同时披露:DeepSeek 启动了成立以来第一轮外部融资,目标募资 3 亿美元以上、估值不低于 200 亿美元。腾讯和阿里同时进场谈判,腾讯一上来就报价收购 20% 股权 —— 被 DeepSeek 拒绝,原因是让出这么大份额会失去对模型路线的控制。阿里同步在谈,但具体条款没披露。整个估值的锚是同样未上市的 MiniMax 约 400 亿美元 —— DeepSeek 内部认为自己应该至少匹配一半。重要背景:DeepSeek 在此之前从来没拿过外部投资人的钱,所有运营成本都是创始人梁文锋的幻方量化对冲基金输血。

为什么这件事的重量级超过普通融资新闻?三个层面。第一,这是国内顶尖开源大模型公司第一次接受大厂战略投资 —— 之前 DeepSeek 一直坚持独立路线、宁可慢也要拒绝外部资本。立场转变的真实原因不是钱,是算力。这周 V4-Pro 开源放出 1.6T 参数 + 1M 上下文,下一步要做 V5 + 企业级商业化部署,需要的 GPU 配额已经超过幻方自己能撑的量级。阿里和腾讯能给的核心资源是数据中心 GPU 槽位,不是现金。第二,腾讯阿里这次同台竞价,本质是抢「中国版 OpenAI 战略股东」这个稀缺位置 —— Microsoft 之于 OpenAI 的故事,国内大厂都想复制一遍。第三,估值信号传导:DeepSeek 200 亿 + MiniMax 400 亿 + 字节 / 月之暗面跟上,国内大模型一级市场估值天花板被实质性抬起来。

对中国 AI 生态的实操判断:如果腾讯入股成,DeepSeek 模型会更深嵌入腾讯云 + 微信 + QQ 生态;如果阿里赢,会接进通义千问的开放平台 + 阿里云 PAI,企业 ToB 部署成本会有显著下降。第三种可能(DeepSeek 真正想要的)是腾讯阿里各拿小份额互相制衡。对国内 AI 应用层的工程师:本周开始关注 DeepSeek V4 在阿里云 / 腾讯云的部署节奏 —— 谁家先上、价格多少,会直接决定接下来 6 个月你应该在哪家云上做 RAG / Agent 部署

> 来源: Bloomberg · The Information · DIGITIMES

---

5. 白宫行政令进入执行:司法部组 AI Litigation Task Force 起诉各州 AI 法,全球监管同步松绑

白宫 AI 行政令

一句话: 联邦政策直接 preempt 各州 AI 立法,司法部成立 AI Litigation Task Force 逐州起诉,欧盟 Digital Omnibus 同步推迟合规。

Cooley 律所 04-24 发布的 50 州 AI 立法盘点报告,把过去 4 个月美国 AI 监管的实质性变化整合到了一张表里。核心结论:去年 12 月特朗普签署的行政令(联邦政策 preempt 各州 AI 立法)在 2026 年 4 月进入实质执行阶段。司法部专门成立了 AI Litigation Task Force,对加州、科罗拉多、纽约这些已经通过严苛 AI 法案的州逐个发起诉讼,主要理由是「各州的 AI 监管不当干预州际商业,违宪」。直接结果是:多个州主动延后或撤回原本计划 2026 年生效的 AI 法案 —— Colorado AI Act、Texas TRAIGA、纽约 NYC AEDT 这些都在被重新审视,部分合规截止期已经被推到 2027 甚至 2028。

把这件事放进全球监管图景里看就更清晰。同期欧盟在推进 Digital Omnibus 提案,核心是把 EU AI Act 高风险条款的合规截止日整体推后到 2027-2028。Bloomberg 04-20 报道 Siemens CEO Roland Busch 公开喊话:如果欧盟不放松监管,西门子的 AI 投资就转去美国和中国,不在欧盟落地。这种「监管套利」正在成为大型企业的明牌策略 —— 哪个市场对 AI 部署友好,资本和团队就去哪。这一波信号合在一起读:美国从「各州各自立法」切到「联邦统一接管 + 鼓励创新优先」;欧盟从「全球最严」往后退一档;中国本来就在加速给大模型颁牌照。三大监管区同步松绑,AI 应用层从合规角度看进入了一个明显的窗口期。

对工程师和团队的实操线索:做 AI compliance / AI risk / legal tech 的工程师,本周开始重新审视合规框架 —— 之前为 Colorado AI Act、NYC AEDT、Illinois BIPA-like 法案做的检测 / 文档 / 偏见审计模块,相当一部分会被废除或大幅简化。把对齐基线切回到联邦层(NIST AI Risk Management Framework + 白宫行政令)。做 startup 的:美国市场监管摩擦成本下降,特别是 HR / 招聘 / 信用评分 / 保险定价 / 教育评估这些之前被 EEOC + 各州法律严管的高风险场景,重新可以做了。但欧盟市场仍然必须按 EU AI Act 走。

> 来源: Cooley LLP · Bloomberg · Eversheds Sutherland

---

关注 JR Academy

想每天 9 点收到 AI 日报?关注 JR Academy 公众号 · 回复「AI 日报」自动订阅。历史日报全开放:jiangren.com.au/blog

学完今天 5 条新闻,建议同步看:

作者
一键分享或复制链接

相关文章推荐

查看全部文章 →