1. DeepSeek V4:1.6万亿参数开源大炮来袭

DeepSeek V4 model architecture overview

一句话: DeepSeek 正式发布 V4 系列,旗舰版参数量达1.6万亿,在推理基准上「几乎追平」GPT-5.5,同时以激进定价持续打压行业价格。

DeepSeek V4-Pro 于5月2日正式上线,采用混合专家(MoE)架构,拥有1.6万亿总参数,每次推理激活49B参数,支持100万 token 上下文。与此同时,轻量版 V4-Flash(284B参数,激活13B)以 $0.14/M tokens 的超低价同步发布。DeepSeek 在新闻稿中表示,V4 通过「压缩稀疏注意力(CSA)」和「强压缩注意力(HCA)」混合机制,在1M token 场景下推理计算量仅为 V3.2 的27%。

从基准测试数据看,V4-Pro 在数学推理、代码生成和长文档理解任务上与 GPT-5.5、Claude Opus 4.7 处于同一量级,而其 $0.145/M 的输入价格(按75折优惠至5月底实际约 $0.036)相比上述闭源模型便宜一个数量级。MIT Technology Review 撰文称,V4 的意义不只是性能追赶,更在于它为「高参数量 MoE 开源模型」的可行性提供了最新实证——证明开源社区在基础模型层面的竞争力仍在持续提升。

这对 AI 工程师和产品决策者意味着什么?对于文档分析、代码补全、数据提取等对延迟要求不极端的任务,V4-Flash 已具备生产级部署性价比。如果你的团队正在评估从闭源模型迁移,现在是做 POC 的时间窗口:V4-Pro 的75折优惠到5月31日截止,之后会恢复原价 $0.58/M(input)。

> 来源: TechCrunch · MIT Technology Review

---

2. Grok 4.3 全面发布:价格降40%,原生视频输入来了

xAI Grok 4.3 multimodal capabilities

一句话: xAI 完成 Grok 4.3 全量发布,输入价格较上代砍40%,首次支持原生视频输入,并新增 Slides 直接生成功能。

xAI 于4月30日宣布 Grok 4.3 API 全面上线。与4月17日 Beta 版相比,正式版主要更新包括:输入价格从 $2/M 降至 $1.25/M(降幅约38%),输出价格从 $6/M 降至 $2.50/M,上下文窗口从128K 扩至100万 token,以及新增原生视频处理能力。Grok 4.3 现在可以直接在聊天界面内生成演示文稿幻灯片,无需调用外部工具。此外,xAI 的 Speech-to-Text API(支持25种语言的批量/流式转写)也同步转为正式可用状态。

从市场竞争角度看,Grok 4.3 的发布时间节点颇具战略意义:在 DeepSeek V4 宣布降价几乎同期,xAI 主动下调价格,维持其在价格敏感用户中的吸引力。VentureBeat 指出,Grok 4.3 的1M token 上下文与 GPT-5.5 Pro(同样支持1M)对齐,而原生视频输入则超过了 Claude Opus 4.7 的当前多模态能力。不过 TechCrunch 报道称,xAI 的训练数据管理受到外界质疑,据称 Grok 训练中使用了 OpenAI 模型生成的内容,这一问题可能在版权和模型血缘方面带来法律风险。

对于正在评估 AI 工具堆栈的工程师,Grok 4.3 的视频输入能力打开了新的应用场景:会议录像摘要、监控视频分析、教学视频智能索引等均可考虑。SuperGrok Heavy 订阅($300/月)已涵盖完整 Grok 4.3 Pro 能力;API 用户则可直接以新价格调用,无需升级套餐。

> 来源: VentureBeat · xAI Docs

---

3. Anthropic 双拳出击:Claude Opus 4.7 + 企业安全扫描

Anthropic Claude enterprise security features

一句话: Anthropic 同期推出 Claude Opus 4.7 新模型与 Claude Security 公测版,前者强化视觉创意能力,后者向企业提供代码库漏洞扫描与 AI 驱动修复。

Claude Opus 4.7 在前代定价基础上($5/M input,$25/M output)未作调整,但在视觉理解和创意输出质量上做了明显提升——Anthropic 官方描述其在生成 UI 原型、演示文稿和技术文档时输出「更高质量的界面和专业内容」。与此同时,Claude Security 以公测形式向 Claude Enterprise 客户开放:企业只需将代码库接入,无需自建 agent,即可进行定期和按需代码漏洞扫描,由 Claude Opus 4.7 驱动,支持漏洞发现、补丁生成、风险评估记录和审计系统集成。

Infosecurity Magazine 的分析指出,Claude Security 标志着 AI 厂商的服务边界正在从「API 调用」延伸至「安全运营即服务」。传统 SAST 工具(静态代码分析)需要大量规则配置,而 Claude Security 利用大模型的上下文理解能力处理复杂的跨文件漏洞链,在理论上可以发现传统规则引擎漏掉的深层问题。此外,The Register 报道称 Anthropic 曾测试将 Claude Code 从 Pro 套餐中移除,最终因用户反弹而暂缓,显示 Anthropic 在商业化节奏和用户体验之间仍在微调。

对于 JR Academy 学员和 IT 从业者:如果你的公司使用 Claude Enterprise,现在可以申请 Claude Security Beta 资格;即使不用 Anthropic 产品,这波「AI 驱动安全工具」的趋势也值得关注——未来几年安全工程师的工作流会越来越多地围绕 AI 辅助扫描和修复构建。

> 来源: Business Standard · Infosecurity Magazine

---

4. 谷歌 Deep Research Max:Gemini 3.1 Pro 驱动的专家级调研 Agent

Google Deep Research AI agent for scientific research

一句话: 谷歌基于 Gemini 3.1 Pro 发布 Deep Research Max,可自主浏览数百个信息源生成专家级报告,同时 AlphaEvolve 向美国17个国家实验室开放。

谷歌在近期更新中推出了两个版本的 Deep Research:标准版和 Deep Research Max。后者由 Gemini 3.1 Pro 驱动,面向需要高密度信息综合的专业场景——法律研究、市场分析、科学文献综述等。与前代相比,Deep Research Max 在单次研究任务中参考的信息源数量显著增加(从数十个提升至数百个),并能在报告中标注「关键差异点」和「证据置信度」。谷歌表示,Max 版本的报告在深度和细节上「更接近顶级分析师的产出」。

在更宏观的布局上,谷歌 DeepMind 同期将 AlphaEvolve(一个使用 Gemini 驱动的算法设计 AI agent)的加速访问权限扩展至美国能源部下属的全部17个国家实验室,覆盖材料科学、药物发现、能源效率等领域。这意味着 AI 与科学研究的融合正在从「实验室演示」步入「国家级基础设施」阶段。根据 BNL Newsroom 的报告,布鲁克海文国家实验室已将 AlphaEvolve 用于粒子加速器算法优化。

对于普通用户和内容从业者,Deep Research Max 最直接的价值在于信息密集型工作的效率提升:一份过去需要资深分析师花费3-5天的竞品研究报告,现在可以在数小时内完成初稿。配合人工审阅和补充,总时间可压缩至1天以内。目前 Deep Research Max 通过 Google One AI Premium 计划提供,建议有调研需求的从业者尽早体验。

> 来源: Google Blog · BNL Newsroom

---

5. 白宫 AI 政策框架发布:联邦统一监管 vs 科罗拉多州法案

US Capitol AI policy regulation framework

一句话: 白宫《国家 AI 政策框架》建议联邦凌驾各州 AI 监管,而科罗拉多州 AI 法案将于6月30日生效,美国 AI 治理格局进入「联邦-各州博弈」关键期。

白宫于2026年3月20日发布《国家人工智能政策框架》,这是美国迄今为止最系统化的联邦 AI 治理蓝图。框架的核心立场包括:不创建专门 AI 监管机构,由现有行业监管机构(FDA、FTC、SEC 等)在各自领域内管理 AI 应用;建议国会立法「预先豁免」各州 AI 法律,以避免企业同时面对50套不同合规要求;同时提出 AI 开发应遵循自愿性行业标准而非强制规定。这一框架与欧盟《AI 法案》的强制分级监管路径形成鲜明对比。

然而在联邦框架落地之前,科罗拉多州 AI 法案(SB205)即将于2026年6月30日生效。该法案要求「高风险 AI 系统」的开发者和部署者满足以下义务:开展算法影响评估、建立风险管理体系、向受影响用户提供算法决策说明,并防止算法歧视。美国律师事务所 Gunderson Dettmer 分析指出,这对 HR 技术、信贷决策、医疗诊断等领域使用 AI 的企业影响最大。

对于在美国有业务的 IT 企业(尤其是提供 HR 系统、金融科技或医疗 AI 产品的公司):如果你的产品在科罗拉多州运营,需要在6月30日前完成合规评估——即使联邦预先豁免最终通过,过渡期的法律空白仍存在风险。JR Academy 学员若在相关领域求职或创业,了解 AI 合规基础知识(Responsible AI、Bias Auditing)将成为差异化竞争力。

> 来源: White House · Gunderson Dettmer

JR Academy · Blog职业洞察

DeepSeek V4 / Grok 4.3降价40% / Claude Opus 4.7 / 深度研究Max / 白宫AI框架

DeepSeek V4 以1.6万亿参数逼近闭源前沿;xAI Grok 4.3 降价40%上线视频输入;Anthropic 双发 Claude Opus 4.7 与安全扫描工具;谷歌 Deep Research Max 开放专家级调研;白宫 AI 政策框架引发联邦与各州监管博弈。

发布日期
阅读时长2 分钟
作者

1. DeepSeek V4:1.6万亿参数开源大炮来袭

DeepSeek V4 model architecture overview

一句话: DeepSeek 正式发布 V4 系列,旗舰版参数量达1.6万亿,在推理基准上「几乎追平」GPT-5.5,同时以激进定价持续打压行业价格。

DeepSeek V4-Pro 于5月2日正式上线,采用混合专家(MoE)架构,拥有1.6万亿总参数,每次推理激活49B参数,支持100万 token 上下文。与此同时,轻量版 V4-Flash(284B参数,激活13B)以 $0.14/M tokens 的超低价同步发布。DeepSeek 在新闻稿中表示,V4 通过「压缩稀疏注意力(CSA)」和「强压缩注意力(HCA)」混合机制,在1M token 场景下推理计算量仅为 V3.2 的27%。

从基准测试数据看,V4-Pro 在数学推理、代码生成和长文档理解任务上与 GPT-5.5、Claude Opus 4.7 处于同一量级,而其 $0.145/M 的输入价格(按75折优惠至5月底实际约 $0.036)相比上述闭源模型便宜一个数量级。MIT Technology Review 撰文称,V4 的意义不只是性能追赶,更在于它为「高参数量 MoE 开源模型」的可行性提供了最新实证——证明开源社区在基础模型层面的竞争力仍在持续提升。

这对 AI 工程师和产品决策者意味着什么?对于文档分析、代码补全、数据提取等对延迟要求不极端的任务,V4-Flash 已具备生产级部署性价比。如果你的团队正在评估从闭源模型迁移,现在是做 POC 的时间窗口:V4-Pro 的75折优惠到5月31日截止,之后会恢复原价 $0.58/M(input)。

> 来源: TechCrunch · MIT Technology Review

---

2. Grok 4.3 全面发布:价格降40%,原生视频输入来了

xAI Grok 4.3 multimodal capabilities

一句话: xAI 完成 Grok 4.3 全量发布,输入价格较上代砍40%,首次支持原生视频输入,并新增 Slides 直接生成功能。

xAI 于4月30日宣布 Grok 4.3 API 全面上线。与4月17日 Beta 版相比,正式版主要更新包括:输入价格从 $2/M 降至 $1.25/M(降幅约38%),输出价格从 $6/M 降至 $2.50/M,上下文窗口从128K 扩至100万 token,以及新增原生视频处理能力。Grok 4.3 现在可以直接在聊天界面内生成演示文稿幻灯片,无需调用外部工具。此外,xAI 的 Speech-to-Text API(支持25种语言的批量/流式转写)也同步转为正式可用状态。

从市场竞争角度看,Grok 4.3 的发布时间节点颇具战略意义:在 DeepSeek V4 宣布降价几乎同期,xAI 主动下调价格,维持其在价格敏感用户中的吸引力。VentureBeat 指出,Grok 4.3 的1M token 上下文与 GPT-5.5 Pro(同样支持1M)对齐,而原生视频输入则超过了 Claude Opus 4.7 的当前多模态能力。不过 TechCrunch 报道称,xAI 的训练数据管理受到外界质疑,据称 Grok 训练中使用了 OpenAI 模型生成的内容,这一问题可能在版权和模型血缘方面带来法律风险。

对于正在评估 AI 工具堆栈的工程师,Grok 4.3 的视频输入能力打开了新的应用场景:会议录像摘要、监控视频分析、教学视频智能索引等均可考虑。SuperGrok Heavy 订阅($300/月)已涵盖完整 Grok 4.3 Pro 能力;API 用户则可直接以新价格调用,无需升级套餐。

> 来源: VentureBeat · xAI Docs

---

3. Anthropic 双拳出击:Claude Opus 4.7 + 企业安全扫描

Anthropic Claude enterprise security features

一句话: Anthropic 同期推出 Claude Opus 4.7 新模型与 Claude Security 公测版,前者强化视觉创意能力,后者向企业提供代码库漏洞扫描与 AI 驱动修复。

Claude Opus 4.7 在前代定价基础上($5/M input,$25/M output)未作调整,但在视觉理解和创意输出质量上做了明显提升——Anthropic 官方描述其在生成 UI 原型、演示文稿和技术文档时输出「更高质量的界面和专业内容」。与此同时,Claude Security 以公测形式向 Claude Enterprise 客户开放:企业只需将代码库接入,无需自建 agent,即可进行定期和按需代码漏洞扫描,由 Claude Opus 4.7 驱动,支持漏洞发现、补丁生成、风险评估记录和审计系统集成。

Infosecurity Magazine 的分析指出,Claude Security 标志着 AI 厂商的服务边界正在从「API 调用」延伸至「安全运营即服务」。传统 SAST 工具(静态代码分析)需要大量规则配置,而 Claude Security 利用大模型的上下文理解能力处理复杂的跨文件漏洞链,在理论上可以发现传统规则引擎漏掉的深层问题。此外,The Register 报道称 Anthropic 曾测试将 Claude Code 从 Pro 套餐中移除,最终因用户反弹而暂缓,显示 Anthropic 在商业化节奏和用户体验之间仍在微调。

对于 JR Academy 学员和 IT 从业者:如果你的公司使用 Claude Enterprise,现在可以申请 Claude Security Beta 资格;即使不用 Anthropic 产品,这波「AI 驱动安全工具」的趋势也值得关注——未来几年安全工程师的工作流会越来越多地围绕 AI 辅助扫描和修复构建。

> 来源: Business Standard · Infosecurity Magazine

---

4. 谷歌 Deep Research Max:Gemini 3.1 Pro 驱动的专家级调研 Agent

Google Deep Research AI agent for scientific research

一句话: 谷歌基于 Gemini 3.1 Pro 发布 Deep Research Max,可自主浏览数百个信息源生成专家级报告,同时 AlphaEvolve 向美国17个国家实验室开放。

谷歌在近期更新中推出了两个版本的 Deep Research:标准版和 Deep Research Max。后者由 Gemini 3.1 Pro 驱动,面向需要高密度信息综合的专业场景——法律研究、市场分析、科学文献综述等。与前代相比,Deep Research Max 在单次研究任务中参考的信息源数量显著增加(从数十个提升至数百个),并能在报告中标注「关键差异点」和「证据置信度」。谷歌表示,Max 版本的报告在深度和细节上「更接近顶级分析师的产出」。

在更宏观的布局上,谷歌 DeepMind 同期将 AlphaEvolve(一个使用 Gemini 驱动的算法设计 AI agent)的加速访问权限扩展至美国能源部下属的全部17个国家实验室,覆盖材料科学、药物发现、能源效率等领域。这意味着 AI 与科学研究的融合正在从「实验室演示」步入「国家级基础设施」阶段。根据 BNL Newsroom 的报告,布鲁克海文国家实验室已将 AlphaEvolve 用于粒子加速器算法优化。

对于普通用户和内容从业者,Deep Research Max 最直接的价值在于信息密集型工作的效率提升:一份过去需要资深分析师花费3-5天的竞品研究报告,现在可以在数小时内完成初稿。配合人工审阅和补充,总时间可压缩至1天以内。目前 Deep Research Max 通过 Google One AI Premium 计划提供,建议有调研需求的从业者尽早体验。

> 来源: Google Blog · BNL Newsroom

---

5. 白宫 AI 政策框架发布:联邦统一监管 vs 科罗拉多州法案

US Capitol AI policy regulation framework

一句话: 白宫《国家 AI 政策框架》建议联邦凌驾各州 AI 监管,而科罗拉多州 AI 法案将于6月30日生效,美国 AI 治理格局进入「联邦-各州博弈」关键期。

白宫于2026年3月20日发布《国家人工智能政策框架》,这是美国迄今为止最系统化的联邦 AI 治理蓝图。框架的核心立场包括:不创建专门 AI 监管机构,由现有行业监管机构(FDA、FTC、SEC 等)在各自领域内管理 AI 应用;建议国会立法「预先豁免」各州 AI 法律,以避免企业同时面对50套不同合规要求;同时提出 AI 开发应遵循自愿性行业标准而非强制规定。这一框架与欧盟《AI 法案》的强制分级监管路径形成鲜明对比。

然而在联邦框架落地之前,科罗拉多州 AI 法案(SB205)即将于2026年6月30日生效。该法案要求「高风险 AI 系统」的开发者和部署者满足以下义务:开展算法影响评估、建立风险管理体系、向受影响用户提供算法决策说明,并防止算法歧视。美国律师事务所 Gunderson Dettmer 分析指出,这对 HR 技术、信贷决策、医疗诊断等领域使用 AI 的企业影响最大。

对于在美国有业务的 IT 企业(尤其是提供 HR 系统、金融科技或医疗 AI 产品的公司):如果你的产品在科罗拉多州运营,需要在6月30日前完成合规评估——即使联邦预先豁免最终通过,过渡期的法律空白仍存在风险。JR Academy 学员若在相关领域求职或创业,了解 AI 合规基础知识(Responsible AI、Bias Auditing)将成为差异化竞争力。

> 来源: White House · Gunderson Dettmer

作者
一键分享或复制链接

相关文章推荐

查看全部文章 →