1. DeepSeek V4 与华为「超节点」联手:开源价格战升级
一句话: DeepSeek V4 正式发布 Flash 和 Pro 双版本,与华为昇腾 950 合作推进国产算力自给,定价仅约 GPT-5.5 三分之一,再次颠覆 AI 成本基线。
DeepSeek V4 系列采用混合专家(MoE)架构,支持 100 万 token 上下文,并引入自研的「混合注意力架构(Hybrid Attention Architecture)」——该机制通过在不同层交替使用稀疏与密集注意力,显著提升跨超长对话的上下文记忆能力,同时降低推理计算量。Flash 版本以极低参数激活量面向高频低延迟场景,Pro 版则针对需要深度推理的复杂任务。与去年 V3.2 相比,两个版本在推理基准(数学、代码、长文档)上均有显著提升,据 TechCrunch 报道已「几乎追平」当前前沿模型。
在硬件层面,DeepSeek 宣布与华为就「超节点」技术展开合作,依托华为昇腾 950 芯片的大规模集群进行分布式训练。这一合作释放出明确信号:中国 AI 顶级玩家正在有意识地减少对英伟达 GPU 的依赖,打通国产算力到顶级开源模型的完整链路。华为昇腾 950 超节点预计在下半年量产,届时 V4-Pro 的推理成本有望进一步压缩。目前 V4-Pro 定价 $0.145/M 输入 token(5月底前享受 75 折优惠),约为 GPT-5.5 的三分之一,也远低于 Claude Opus 4.7。
对于澳洲 IT 从业者和创业团队,这意味着生产级 AI 能力的采购成本再次被拉低。如果你的应用场景是文档分析、代码补全、数据提取,V4-Flash 已具备部署的性价比。更值得关注的长线含义是:当中国开源模型持续压价,全球 AI 行业的「高利润护城河」正在缩窄,依赖模型本身定价差异的商业模式面临压力,而「应用层创新」将成为更有防御性的竞争位置。
> 来源: TechCrunch · Bloomberg · MIT Technology Review
---
2. Grok 4.3 降价 40%,Musk 法庭承认蒸馏训练 OpenAI 模型
一句话: xAI Grok 4.3 全量推出同日,Elon Musk 在加州联邦法庭上承认 xAI 曾用「蒸馏」技术借鉴 OpenAI 模型训练 Grok,法律风险与产品扩张同步升级。
Grok 4.3 的商业层面进展清晰:API 输入价格降至 $1.25/M(降幅约 38%),上下文窗口从 128K 扩至 100 万 token,首次支持原生视频输入,并增加「Imagine Agent Mode」Beta——用户可通过自然语言描述,在对话界面内直接生成完整 AI 图像生成任务链。此外 xAI 同步开放了支持 25 种语言的语音转文字 API(Speech-to-Text),进入多模态全栈竞争。Custom Voices(自定义音色克隆套件)也进入公测,面向播客、有声读物、教育内容等场景。
然而就在 Grok 4.3 发布的同一周,Elon Musk 在加州联邦法院就 OpenAI 诉讼出庭作证时承认,xAI 使用过「蒸馏」技术——即用成熟大模型的输出作为训练信号——来提升 Grok 的性能,并表示这是行业通行做法。这一说法立即成为诉讼中的核心争议点:OpenAI 方面主张这构成对其模型知识产权的未授权利用,而 Musk 一方则认为蒸馏属于技术常规,不涉及版权侵权。如果 OpenAI 在法律层面胜诉,可能影响 xAI 的估值逻辑、融资节奏,乃至后续模型训练方式。
对于企业用户和开发者,短期内 Grok 4.3 提供了极具竞争力的价格与能力组合;但采购高集成度 AI 基础设施时,供应商的法律不确定性是需要纳入评估的风险变量。对于 AI 行业整体,这场诉讼正在逼迫所有玩家厘清训练数据来源与模型蒸馏的边界,可能催生更严格的训练溯源标准——这对开源社区和小型 AI 创业公司同样构成深远影响。
> 来源: TechCrunch · The Register · tbreak
---
3. GPT-5.5 发布:顶配版锁付费,微软同步解除独家云协议
一句话: OpenAI 正式推出 GPT-5.5,强化智能体编码与 computer use 能力;同日微软解除云独家限制,AWS 与 Google Cloud 也可分发 OpenAI 模型,行业格局重写。
GPT-5.5 在 agentic coding(智能体驱动的编码工作流)和 computer use(直接操控操作系统与应用)两个维度上大幅提升:模型可以理解用户意图后自动拆解成多步骤任务链,跨工具完成从搜索、写代码到执行验证的完整流程。通用 ChatGPT Plus 用户可使用标准版,而顶配的 GPT-5.5-Cyber 版本——据 The Register 报道,具备更强的代码渗透测试与安全评估能力——仅向通过「Trusted Access for Cyber」认证的高级付费用户开放,门槛包括强制启用「高级账户安全」(Advanced Account Security)并经过身份验证。批评者指出,OpenAI 此前曾公开批评 Anthropic 将 Claude Code 限制在付费套餐,如今自己也采取了类似策略。
与此同时,OpenAI 与微软完成合作协议重谈,正式解除了云独家条款。这意味着 OpenAI 模型将可通过 AWS 和 Google Cloud 同等分发,结束了微软 Azure 此前作为唯一官方云渠道的局面。对 OpenAI 而言,多云分发将扩大企业采购覆盖面,降低客户对单一云商绑定的顾虑;对微软而言,虽然失去独家,但仍保留深度整合优势(Azure OpenAI Service、Copilot 体系等)。行业分析师普遍认为,这一变化是 OpenAI 朝「平台型公司」而非「Azure 专属模型供应商」转型的关键一步。
对于企业用户,这意味着更灵活的采购路径——不必因为云厂商偏好而被迫在 OpenAI 和替代模型之间抉择。对于 IT 开发者,GPT-5.5 的 computer use 能力将大幅降低 RPA(机器人流程自动化)和工作流自动化的开发门槛;结合多云分发,企业在澳洲、新加坡等市场使用 OpenAI API 的合规性和延迟体验也有望改善。
> 来源: The Register · OpenAI News · Marketing Profs
---
4. Claude Opus 4.7 正式 GA:与 Adobe、Blender、Ableton 原生连接
一句话: Anthropic 将 Claude Opus 4.7 转为正式可用,同时开放与五大创意软件的原生连接器,标志着 AI 助手从通用对话向专业工作流深度渗透。
Claude Opus 4.7 正式版(GA)相比此前的 4.6 在高难度软件工程任务上表现显著提升,Anthropic 官方描述其「在处理复杂、长时间运行的任务时表现出更强的严谨性和一致性」,并将最高难度编码工作交付给它的信心大幅提升。API 定价维持不变($5/M input,$25/M output),Claude.ai Pro 和 Team 用户可直接使用。同步宣布的是 Claude Code 的系列更新:新增 ultrareview(超深度代码审查)、session recaps(会话摘要)、自定义主题,以及全新 Web 界面的会话侧边栏设计。
更具战略意义的是创意软件连接器的同步上线:Anthropic 新增了与 Adobe Creative Cloud、Blender、Ableton Live、Affinity Photo/Design、Autodesk Fusion 的原生集成,让 Claude 可以直接读取用户的项目文件、资产和版本历史,并在这些应用内提供上下文感知的建议与自动化操作。这不仅是功能扩展,更是一次市场定位的宣言——AI 助手的战场正从「聊天窗口」扩展到「专业应用内嵌」。设计师在 Illustrator 里修改品牌规范、音乐制作人在 Ableton 里调整编曲逻辑,都可以直接调用 Claude,无需在标签页间切换上下文。
对于澳洲创意和科技从业者,这波连接器整合意味着 AI 的生产力收益不再局限于文字工作或编程,而是真正向视觉、音频、工程设计等创意产业延伸。从 IT 人才培训的视角看,未来的专业岗位将越来越需要「AI 原生工作流」能力,即熟练将 AI 工具嵌入现有软件的工作链——而不只是会用 ChatGPT 写邮件。
> 来源: Anthropic · Anthropic Opus 4.7 · Releasebot
---
5. Meta 裁员 8000 人,AI 资本开支却翻倍至 1350 亿美元
一句话: Meta 宣布 5 月 20 日裁员约 8000 人(占全员 10%),但同期上调 2026 年 AI 资本开支至 1150–1350 亿美元——是 2025 年的近两倍,「人减 AI 加」战略意图明确。
这次裁员规模超出此前预期:Meta 78865 人的员工基数中,约 10% 将在 5 月 20 日正式离开,下半年还有进一步裁减计划。被波及的岗位集中在基础运营、内容审核、传统广告产品、HR 等非 AI 相关职能。与此同时,Meta 2026 年的资本开支指引区间上调至 $1150–1350 亿美元(约合澳元 1750–2050 亿),相比 2025 年的 $722 亿几乎翻倍,资金流向数据中心建设、英伟达 GPU 集群、Llama 模型训练,以及基础设施部门的人才招聘。换句话说,Meta 同时在「缩减旧职位」和「大幅扩张 AI 投资」,两条线并行运转。
这一模式不是 Meta 独有:过去 18 个月,Google、Amazon、Microsoft 均呈现出相似的「裁员 + 增加 AI 资本开支」双轨操作。从宏观逻辑上看,这折射出科技巨头对 AI 时代竞争格局的判断:人力密集型业务的边际价值在下降,而 AI 基础设施的战略价值在急速上升。Meta 押注 Llama 系列开源模型作为生态入口,通过硬件规模优势降低训练成本,同时把 Llama 深度整合进 WhatsApp、Messenger、Instagram 的日常功能中。
对于澳洲 IT 求职者和在读学员,这个数据点提供了一个清晰的就业市场信号:未来 3 年,AI 基础设施工程师(MLOps、数据工程、AI 平台架构)的需求将持续旺盛,而传统 IT 运维、数据输入类岗位的存量将持续收缩。「了解 AI 工具」已不够用——「能把 AI 嵌进业务流程」才是抗裁员的核心能力。对于已在科技行业的从业者,现在是主动评估自己所在团队「被 AI 替代的时间线」并提前转型的窗口。
> 来源: The Next Web · CNBC · FX Leaders