1. Anthropic 悉尼办公室开张:Theo Hourmouzis 接管 ANZ,Claude 同日表态永不接广告
一句话: Anthropic 04-27 在悉尼开亚太第 4 间办公室,前 Snowflake ANZ + ASEAN SVP Theo Hourmouzis 任 ANZ 总经理,同步官方表态 Claude 永远不接广告。
Anthropic 04-27 正式在悉尼开了亚太区第 4 间办公室,前 3 间分别在东京、班加罗尔,下一间在路上的是首尔。这次同步任命的 ANZ 总经理 Theo Hourmouzis 是从 Snowflake 跳过来的,原职位是 SVP for Australia, New Zealand & ASEAN,在亚太企业软件赛道做了 20 多年。Anthropic 同日还发了一份立场声明:Claude 永远不会接广告,理由是「广告激励与真正有用的 AI 助手之间存在结构性冲突」 —— 这是直接对位 OpenAI 4 月被传在测试 ChatGPT 内嵌广告的传闻。
为什么这件事比一次普通的「区域办公室开张」重要得多?三个数字。第一,根据 Stanford AI Index 2026,Anthropic 已经拿下全球企业 LLM API 支出的 40%,OpenAI 从 2023 年的 50% 跌到 27%,这是过去三年最快的 ToB 市场份额翻转。第二,澳大利亚 + 新西兰是 Anthropic 全球前 5 大企业市场(按 API 使用量),CBA / NAB / Westpac / Macquarie / Atlassian / Canva / Telstra 这一票本地大客户已经在用 Claude。第三,悉尼 office 选址离 Atlassian 总部和 Canva 总部都不远,这不是巧合 —— Anthropic 的策略就是「贴着大客户开 office」。
对澳洲求职者和企业的实操线索:第一,Anthropic Sydney 早期员工窗口正式打开,AI Solutions Architect / Account Executive / Customer Engineer 这几个岗会优先在悉尼招,看 LinkedIn 第一周就会有 JD 出来 —— 有 enterprise sales 或 ML 部署经验的本地候选人是稀缺资产。第二,本地企业用 Claude 的合规和数据驻留问题(去年很多金融客户卡在「数据出境到 us-west-2」这条上)正式有人接,POC 周期会从平均 3 个月缩到 6 周以内。第三,给学员的判断:澳洲的 AI 招聘从 2026Q1 开始就不是「概念阶段」了 —— Anthropic、Google、AWS、Microsoft 全部在悉尼/墨尔本有本地 AI infra 团队,求职策略要从「投美国 remote」切到「优先投本地 office」。
> 来源: Anthropic 官方 · ChannelLife AU · Bloomberg
---
2. Google 04-27 升级 Gemini 3 Deep Think:Deep Research + Deep Research Max 上 Gemini API,原生 MCP
一句话: Gemini 3 Deep Think 推理模式重做,Deep Research + Deep Research Max 两个研究 agent 上 Gemini API 公测,原生 MCP + 内嵌图表生成。
Google 04-27 同时甩了两件事。第一,Gemini 3 的 Deep Think 推理模式做了一次大升级 —— 这是 Gemini 3 系列里专门跑「需要多步推理 + 长程思考」任务的模式,对标 OpenAI o-series,主要服务科学研究、数学竞赛、复杂代码这种需要分步思考的场景。第二,Deep Research 和 Deep Research Max 两个自治研究 agent 进 Gemini API 公测,底层模型是 Gemini 3.1 Pro。两个版本的分工很清晰:Deep Research 走交互前端、低延迟、便宜;Deep Research Max 走异步后台、extended test-time compute、长时间推理 + 反复搜索 + 报告精炼。
真正值得拎出来的不是「Google 也做了 Deep Research」 —— 这件事本身落后 OpenAI 整整一年。值得说的是两个具体技术细节。第一,原生 MCP 支持:MCP(Model Context Protocol)是 Anthropic 2024 年底推的协议,2026 年已经成为 agent 接外部工具的事实标准;Google 这次把 MCP 接进 Deep Research API,意味着开发者可以直接把现有的 MCP server(比如 GitHub MCP、Slack MCP、Notion MCP)插进 Deep Research,不用重写。第二,原生图表生成:Deep Research 在生成报告时会用 HTML 或 Nano Banana(Google 自家的 chart 库)直接画图、出 infographic,不用调外部画图 API —— 这是研究 agent 第一次把「数据可视化」做成模型原生能力。
对工程师和产品的实操线索:第一,做 RAG / 研究类产品的(咨询公司、律所、医疗 / 投研),本周必须把 Deep Research Max 当作 OpenAI Deep Research 的对手做一次 benchmark 对比 —— Gemini API 报价大概率比 OpenAI 便宜 30-40%,长任务上 Max 模式的 token 消耗值得盯。第二,做 Agent 编排框架(CrewAI / AutoGen / LangGraph)的,原生接 MCP 已经是 2026 默认动作,没接的产品在 Gemini Enterprise / Anthropic Claude / Cursor 三大分发渠道都拿不到推荐位。第三,对学员的判断:「研究型 agent」是接下来 6 个月企业落地最快的 AI 形态 —— 比 Coding Agent 门槛低、ROI 直观(一份报告省一个分析师一天工时),招聘市场上 Solutions Engineer + RAG 实战经验的复合背景正在被高薪抢。
> 来源: Google Blog · VentureBeat · Gemini API Changelog
---
3. DeepSeek 同日开源 V4 系列:Pro 1.6T 参数刷新 MoE 上限、Flash 284B 卡住企业 API 成本
一句话: DeepSeek 04-27 同日发 V4-Pro(1.6T 参数 / 49B 激活)和 V4-Flash(284B / 13B 激活),两版本都支持 1M 上下文,全部开源。
DeepSeek 04-27 在融资新闻持续发酵的同一天,把 V4 系列两个版本一起开源放出来。V4-Pro:总参数 1.6 万亿、激活 490 亿、典型 MoE 架构,成为目前公开权重模型里参数量最大的一档 —— 比之前 Meta Llama 4 Maverick 的 400B、Mistral 的 Mixtral 系列都大一个量级。V4-Flash:总参数 2840 亿、激活 130 亿,主要面向企业 API 服务、把成本压到接近 Anthropic Claude Haiku 那一档。两个版本均原生支持 1M token 上下文窗口,权重以 MIT-style 协议放在 HuggingFace。
为什么这件事的重量级超过普通的「又一个开源模型」?放进时间线看就清楚了。同一周(04-22)Bloomberg 披露 DeepSeek 启动 200 亿美元估值的首轮外部融资、腾讯阿里抢入股、腾讯 20% 股权报价被拒;04-27 V4 系列直接开源放出来,这是一次很硬的「技术兜底」 —— 告诉投资人:你不投我我也照样开源,估值不是讲故事讲出来的。第二个层面,V4-Pro 1.6T 参数量已经接近 GPT-5 系列的公开规格量级,开源世界第一次在「最大模型」这个维度上和闭源世界拉平。第三,V4-Flash 价格预计在每百万 token 输入 0.07 美元、输出 0.21 美元一档(参考 V3 系列),直接卡住 OpenAI GPT-5 mini、Anthropic Haiku、Google Gemini 2.5 Flash 这三家的企业 API 中端市场。
对工程师和团队的实操线索:第一,国内做 RAG / Agent 的本周可以开始做 V4-Flash 替换 GPT-4o-mini 的 cost benchmark,特别是中文场景,DeepSeek 在中文 reasoning 上一直是开源里最强的;如果你跑的是聊天机器人、客服、文档问答,单位 token 成本可以再压一半。第二,做模型蒸馏 / 自定义垂域模型的,V4-Pro 是绝佳的 teacher model —— 拿它跑 reasoning trace 做 fine-tune 数据,比直接 API 调 GPT-5 / Claude Opus 4.7 便宜一个数量级(开源权重可以本地部署)。第三,1M 上下文 + 完全开源,意味着「私有部署 + 长文档分析」这种企业内网场景终于有了真正能用的开源选项 —— 法律、医疗、金融客户的 ToB 部署窗口打开。
> 来源: Caixin Global · Caproasia · CnTechPost
---
4. xAI 发 Grok Voice Think Fast 1.0:τ-voice Bench 全球第一,已在 Starlink 电话客服跑生产
一句话: xAI 04-27 发布 Grok Voice Think Fast 1.0 全双工语音 agent,τ-voice Bench 全球第一,已在 Starlink 电话客服跑生产,同步开放独立 STT/TTS API。
xAI 04-27 发布了一个真正能跑生产的语音 agent:Grok Voice Think Fast 1.0。最硬的一个数字:在 τ-voice Bench 全球第一名 —— 这是一个新的全双工语音评测框架,专门测「真实客服场景」:背景噪音、被打断、口音差异、自然轮换发言。它已经被部署在 SpaceX 旗下 Starlink 的电话客服系统里跑生产,处理用户的网络问题工单、退订、技术支持等高频场景。同步开放的 Speech-to-Text 和 Text-to-Speech 两个独立 API,支持 25 种以上语言、全双工实时 + batch 双模式、自带 speaker diarization、timestamps、表达性 speech tags。
这件事的真正分量在「全双工」三个字。全双工 = 模型可以同时听 + 同时说 + 被打断后立刻切换 + 不会互相撞车。这是真客服场景的硬门槛,原本市面上能做到的只有 OpenAI Realtime API(GPT-4o Voice Mode),其他家(Deepgram、ElevenLabs Conversational AI、Vapi、Retell)都是 STT → LLM → TTS 三段式拼装,延迟普遍 500ms+ 而且打断处理很差。Grok Voice Think Fast 1.0 进场之后,OpenAI Realtime API 的价格和延迟都会被拖低一档。Starlink 这个落地选址也很关键:电话客服是「容错率最低、SLA 要求最高、规模最大」的语音场景,能跑过 Starlink 这一关意味着模型可以直接进金融、医疗、电信等任何 ToB 客服场景。
对开发者和产品的实操线索:第一,做 SaaS / 电商客服的本周就可以拉 PoC:Grok Voice + 自家工单系统 + CRM,替换印度外包客服 —— 单位每分钟通话成本预计能从 0.50 美元砍到 0.05 美元一档。第二,做语音助手 / IVR / 出海客服的开发者直接对接 Grok 的 STT + TTS 独立 API,比 ElevenLabs(TTS) + Whisper(STT) + LangChain(编排)这种拼装链路简单一个量级,延迟和成本都更可控。第三,从招聘市场角度,「Conversational AI Engineer」这个 title 接下来 6 个月会激增 —— 懂 LLM + 懂 telephony / SIP / WebRTC 的人才严重稀缺,澳洲本地 Telstra / Optus / TPG 这种通信运营商会大量挖。
> 来源: Metaverse Post · xAI 官方 · Releasebot xAI
---
5. 中国发改委否决 Meta 20 亿收购 Manus:AI 跨境 M&A 进入政治窗口期
一句话: 中国国家发改委 04-27 要求 Manus 与 Meta 撤回 20 亿美元收购交易,2025-12 公告以来历经中美双线调查,今天落地双向卡死。
CNBC 04-27 独家报道:中国国家发改委要求 Meta 与 Manus 撤回 2025 年 12 月公告的 20 亿美元收购交易。时间线很清楚:2025-12 Meta 宣布收购国内通用 Agent 公司 Manus(前身蝴蝶效应);2026-01 中国市场监管总局启动反垄断 + 国家网信办启动数据安全审查双线调查;同期华盛顿也启动 CFIUS 审查(美国海外投资委员会,专门审外国资本进美的科技收购)。今天发改委的「要求撤回」基本等于宣判:这单交易在中国侧审批不会通过,而美国侧 CFIUS 同样卡着,意味着双向通道全部关闭。
为什么这件事比一笔普通跨境收购被否决要重要得多?AI Agent 公司是中美技术资产里第一个被两边都按住的样本。原因在 Manus 这种通用 Agent 公司握着两个东西:第一,用户行为数据 —— Agent 在帮用户完成任务时记录了大量浏览器、办公软件、SaaS 系统的使用轨迹,这是非常敏感的训练资产。第二,任务执行能力的核心 IP —— 通用 Agent 的「能跨多个工具完成复合任务」这种能力,被两国都视为 AI 主权的关键节点。结合本周另一条新闻——Anthropic 已经拿下全球企业 LLM API 支出的 40% —— 全球 AI 资产正在按照地缘重新切片:模型层(OpenAI / Anthropic / Google 三家美国公司)、芯片层(Nvidia / Broadcom / TSMC)、Agent 层(Manus / OpenAI Operator / Anthropic Claude),每一层都在加速去全球化。
对从业者和企业的实操线索:第一,做跨境 AI 产品的(中国卖海外,或海外卖中国)必须把「数据驻留 + 模型本地部署」当作硬性合规要求,不再是 nice-to-have;融资估值要预先扣掉一档「跨境惩罚」。第二,对求职者:海外岗位优先看「本地化已经落地」的公司(比如 Anthropic Sydney、OpenAI Tokyo、Google Cloud Singapore),纯 China remote 给海外公司打工的岗位风险升级 —— 企业为了规避审查会优先招本地员工。第三,对产品架构师:通用 Agent + 用户数据是接下来 12 个月地缘最敏感的赛道,做架构时要把「数据存储位置 + 模型 API 出口位置」全部参数化,方便不同区域部署不同的合规栈。
> 来源: CNBC · PYMNTS · IndexBox
---