logo

1. DeepSeek V4 开源放出:1.6T MoE + 1M 上下文,长上下文推理成本砍 90%

DeepSeek V4 开源

一句话: V4-Pro 是目前开源最大权重模型,KV cache 比 V3.2 砍 90%,长上下文推理成本被改写。

DeepSeek 04-24 在 Hugging Face 同步放出 V4-Pro 与 V4-Flash 两个 preview 版本。Pro 是 1.6T 总参 / 49B 激活的 MoE,是目前开源世界最大权重模型;Flash 284B / 13B 激活。两个模型都吃 1M token 上下文,全部走标准 MIT 协议 —— weight 直接可下载、本地可跑、可微调,没有任何 commercial license 限制。距上一代 V3.2 只过了大约 4 个月,节奏快得可怕。

真正值得读两遍的不是参数大小,是架构。V4 引入了 Hybrid Attention:在 1M 上下文条件下,V4-Pro 的单 token FLOPs 只有 V3.2 的 27%、KV cache 只有 10%;V4-Flash 更激进,FLOPs 10%、KV cache 7%。翻译成钱:之前跑 1M context 推理你需要租满血 H100 集群,现在 V4 在同样 token 量下显存占用直接砍掉 90%。MIT Tech Review 给的判断很直接:closes the gap with frontier models —— 开源模型第一次能在长上下文场景咬住 GPT-5.5 和 Claude Opus 4.6。Simon Willison 在他 blog 里测完直接说 almost on the frontier, a fraction of the price。

对工程师的实操线索:第一,做 RAG / Code Review / 法律合同分析这类「上下文吃 100K+」的场景,立刻测 V4-Flash —— 单 token 推理成本是同档闭源模型的零头。第二,如果你之前在跑 Llama 3 / Qwen 系列 + vLLM 自托管,本周就该把 V4 weight pull 下来对比 benchmark。第三,做 Agent 的,1M context 意味着「工作记忆 + 工具历史 + 规划 chain」可以全塞 prompt 不用 RAG,Agent 设计接下来会朝「超长 in-context」演化。

> 来源: Simon Willison's Weblog · TechCrunch · MIT Technology Review

---

2. Kimi K2.6 开源登顶:13 小时连续编码 + 300 子 Agent 并发

Kimi K2.6 开源

一句话: 1T MoE / 32B 激活,国产开源第一次在「长程编码 + 多 Agent 编排」两个工程场景同时压制 GPT-5.4 与 Claude Opus 4.6。

月之暗面 04-20 正式发布并开源 Kimi K2.6。模型本身是 1T 总参 / 32B 激活的 MoE 架构,统一上下文窗口 256K。它的卖点不是参数大小 —— 是 Agent 工程能力。单 Agent 模式下它能连续编码 13 小时、写或改 4000+ 行代码不停;Agent 集群模式下,它可以动态拆任务、自主生成专门的子 Agent,最多并行调度 300 个子 Agent 完成 4000 个协作步骤。在多个 benchmark 上,K2.6 是第一个在「代码 + 长程任务」两个维度同时压过 GPT-5.4 和 Claude Opus 4.6 的开源模型。

和今天另一条 DeepSeek V4 放在一起看,国产开源的两条路线就清晰了。DeepSeek V4 押的是「foundation model 通吃 —— 1.6T 参数 + 1M 上下文 + 推理成本砍 90%」,走的是覆盖范围;Kimi K2.6 押的是「Agent 工程化 —— 13 小时不掉链子 + 300 子 Agent 并发」,走的是工程级可靠性。两条路线都对,解决的是不同问题。Kimi 把模型直接做成「能接进 CI/CD pipeline 跑半天活的数字员工」,比 demo 级 Agent 高一个量级。同步动作是 K2.6 API 涨价 58%,月之暗面在赌「企业客户愿意为可靠的长程作业付钱」。

实操线索:做 Code Agent、自动化重构、legacy codebase 升级的人,把 K2.6 当 Claude Code 工作流 的开源平替直接测。做 multi-agent 编排(CrewAI / AutoGen / LangGraph)的,把 orchestrator 切到 K2.6 试一下「子 Agent 并发上限」是不是真能撑 300 路。对 prompt 工程师来说要换思路 —— prompt 设计开始往工作流编排靠,不再是「写一段 prompt 让模型一口气出结果」。

> 来源: IT之家 · Kimi 官方博客 · 21 经济网

---

3. Cursor 谈 20 亿美元融资 / 500 亿美元估值,Nvidia 首次出手押 AI 应用层

Cursor 估值跳升

一句话: Andreessen Horowitz 领投,Nvidia + Thrive 跟投,半年估值翻倍。Nvidia 第一次投 AI 应用层信号大于钱本身。

CNBC 04-19 率先披露:AI 代码 IDE 公司 Cursor 正在洽谈一轮 20 亿美元融资,对应估值 500 亿美元以上。这一轮由 Andreessen Horowitz 领投,Nvidia 和 Thrive Capital 跟投。Cursor 上一轮估值还在 250 亿美元附近,6 个月不到估值翻倍。这是 AI 应用层赛道第一次出现「单 IDE 产品估值 500 亿美元」的报价 —— 比绝大多数中型 SaaS 上市公司市值都高。

为什么 Cursor 能拿到这种估值?三个原因。第一,AI Coding 是目前 LLM 应用层 ARR 增速最快的细分赛道,Cursor 的 ARR 在过去 12 个月连续 6 个季度环比 50% 以上增长,已经把 GitHub Copilot 在专业开发者群体里的份额挤掉相当一部分。第二,Cursor 已经从「IDE」演化成「Coding Agent 平台」 —— 它的 Composer / Agent 模式直接对标 Claude Code、Codex 这类 agent 产品,护城河变厚。第三,Nvidia 这次跟投信号意义大于钱本身:Nvidia 之前只投基础模型公司(OpenAI、Anthropic、xAI、Mistral),第一次出手押 AI 应用层头部产品,等于在为下一轮 GPU 需求提前绑定关键工具客户 —— Cursor 跑在哪家云上、用谁的 GPU 推理,对 Nvidia 是真金白银的下游订单。

求职端 signal 很强:Cursor 拿到这笔钱必然激进招人,加上 Replit Agent、Bolt、Vercel v0 这一票 AI dev tools 公司同时扩张,AI Engineer 岗位池子接下来 12 个月会持续打开。会前端 + 会用 LLM 写工具调用 + 懂 IDE 内部架构的工程师是最稀缺的组合,比纯 LLM 工程师待遇还高。对个人开发者:现在不学 Cursor / Claude Code / Codex 三个里至少一个,2026 下半年简历会直接落后一个身位 —— 这个工具栈已经从「可选」变成「基本素养」。

> 来源: CNBC

---

4. Adobe Summit 把 Experience Cloud 改名 CX Enterprise,推 Coworker 数字员工

Adobe CX Enterprise

一句话: 营销栈第一次按 Agent 优先重构,Coworker 跑在 MCP + A2A 开放协议上,可以挂第三方 Agent。

Adobe Summit 2026 04-20 一口气甩了几个大动作。最重要的:Experience Cloud 这个用了十几年的产品线名字被整体改名为 CX Enterprise,同步推出 CX Enterprise Coworker —— 一个完整的 agentic AI 系统,可以跨 Adobe + AWS + Anthropic + Google Cloud + Microsoft + OpenAI 平台编排客户体验工作流,不再是「工具集合」,而是真正能监听信号、推荐 next-best-action、跨多渠道实时执行的数字员工。配套发布的还有 Engagement Intelligence(升级版决策引擎)、Journey Optimizer Loyalty(游戏化忠诚度)、CX Analytics(统一洞察)、Real-Time CDP 扩容。

为什么这件事比改名重要?这是企业级 SaaS 公司第一次把整个产品线从「工具集合」彻底重构成「Agent 编排平台」。过去十年 Adobe Experience Cloud 是给营销人员手工配 journey、配规则、配 A/B 实验;现在 CX Enterprise 的核心是 Coworker:营销人员描述目标,Coworker 自己拆任务、自己跨工具执行、人留在审批节点。最关键的细节是协议选择 —— Coworker 跑在 MCP(Model Context Protocol)+ A2A(Agent-to-Agent)这两个开放协议上,意味着第三方 Agent 可以挂进来、Coworker 也可以挂出去到别人的平台。Adobe 在赌一个非常具体的位置:成为 enterprise Agent 编排的中枢平台。配合 Google Cloud Next 2026 上的 A2A 联盟(150+ 组织加入),MCP/A2A 这套协议正在快速变成企业 Agent 的事实标准。

实操线索:做营销自动化、CRM、CDP、客服系统的工程师,立刻去看 MCP 协议规范(Anthropic 维护)和 A2A 协议(Google 主推) —— 这两个协议接下来 12 个月会从「实验性 spec」变成「企业必学」。写 Adobe / Salesforce / HubSpot 集成的工程师,角色会从「写 ETL 同步数据」变成「设计 Agent playbook」。新的复合岗位会爆发:prompt 工程师 + 营销/运营背景。对个人开发者,2026 下半年值得花时间做一个开源 demo —— 比如「我自己的 MCP server,把 Notion / Slack / Gmail 接出来给 Claude Code 用」,这个能力直接就能写进简历。

> 来源: Adobe News - CX Enterprise 总览 · Adobe Unveils CX Enterprise Coworker · MarTech

---

5. TSMC 北美 Symposium:A13 + N2U + 14-reticle CoWoS,AI 芯片瓶颈彻底转向先进封装

TSMC A13 路线图

一句话: 14-reticle CoWoS 单封装可塞 10 大 die + 20 HBM 2028 量产,凤凰城再购 900 英亩做先进封装本土化。

TSMC 04-22 在加州 Santa Clara 开 2026 北美技术 Symposium,一次性公布了三个量级的更新。第一个是 A13 工艺:在 2025 年公布的 A14 节点基础上做 direct shrink,面积省 6%、设计规则完全后向兼容、2029 进入量产。第二个是 N2U:基于 N2P 做 design-technology co-optimization,速度提升 3-4% 或功耗降低 8-10%、逻辑密度再涨 1.02-1.03 倍,2028 量产。第三个是先进封装路线图升级:现役 5.5-reticle CoWoS 之外,14-reticle CoWoS 提上日程 —— 单封装可以塞约 10 颗大型计算 die + 20 个 HBM 堆栈,2028 量产。同时 TSMC 董事会批准在亚利桑那 Phoenix 再购入 900 英亩土地,2029 前建成 CoWoS + 3D-IC 美国本土产能。

翻译成普通话:AI 训练芯片的瓶颈早已经不是「单 die 跑多快」,而是「我能在一个封装里塞多少个 die、塞多少 HBM、互联带宽多大」。Nvidia GB200 用的是 2 颗 Blackwell die + 8 个 HBM,AMD MI400 类似量级;现在 14-reticle CoWoS 把上限直接提到 10 大 die + 20 HBM —— 等于一个封装就是一台老式服务器机架的算力密度。下一代 Nvidia / AMD / Google TPU / AWS Trainium 几乎都会跑在这个新 CoWoS 平台上,没有第二条路。同时 Phoenix 这块 900 英亩地皮意义重大 —— 之前 TSMC 美国厂主要做晶圆制造,先进封装一直留在台湾,现在把先进封装本土化等于把 Nvidia / AMD 整条 AI 供应链拉到美国境内。

对工程师的实操线索:做 ML infra、模型部署、推理优化的人,未来 2 年要习惯「单芯片就是系统」这个新范式 —— 模型并行策略(tensor parallel / expert parallel / context parallel)、KV cache 拆分、attention sharding、kernel fusion 这些技能从「研究方向」变成「工程必修」。硬件岗位的口袋会被 AI 资本重新装满 —— chip packaging engineer、advanced thermal engineer、SI/PI engineer、co-packaged optics engineer 这些之前小众的硬件岗位接下来 2-3 年会出现大幅薪资涨幅,硬件工程师转 AI infra 是一个被严重低估的窗口。做 LLM serving 的人盯住 vLLM / SGLang / TensorRT-LLM 这些推理引擎对新封装的支持节奏。

> 来源: Business Wire / TSMC 官方 · Data Center Dynamics

---

关注 JR Academy

想每天 9 点收到 AI 日报?关注 JR Academy 公众号 · 回复「AI 日报」自动订阅。历史日报全开放:jiangren.com.au/blog

学完今天 5 条新闻,建议同步看:

JR Academy · Blog职业洞察

DeepSeek V4 / Kimi K2.6 双开源 / Cursor 估值 500 亿 / Adobe Coworker / TSMC A13

今日 AI 五大热点:DeepSeek 04-24 开源 V4-Pro 1.6T MoE + 1M 上下文 + KV 砍 90%、Kimi K2.6 开源连续编 13 小时 / 300 子 Agent、Cursor 谈 20 亿融资估值跳 500 亿 Nvidia 首次跟投应用层、Adobe Summit 把 Experience Cloud 改名 C...

发布日期
阅读时长4 分钟
作者

1. DeepSeek V4 开源放出:1.6T MoE + 1M 上下文,长上下文推理成本砍 90%

DeepSeek V4 开源

一句话: V4-Pro 是目前开源最大权重模型,KV cache 比 V3.2 砍 90%,长上下文推理成本被改写。

DeepSeek 04-24 在 Hugging Face 同步放出 V4-Pro 与 V4-Flash 两个 preview 版本。Pro 是 1.6T 总参 / 49B 激活的 MoE,是目前开源世界最大权重模型;Flash 284B / 13B 激活。两个模型都吃 1M token 上下文,全部走标准 MIT 协议 —— weight 直接可下载、本地可跑、可微调,没有任何 commercial license 限制。距上一代 V3.2 只过了大约 4 个月,节奏快得可怕。

真正值得读两遍的不是参数大小,是架构。V4 引入了 Hybrid Attention:在 1M 上下文条件下,V4-Pro 的单 token FLOPs 只有 V3.2 的 27%、KV cache 只有 10%;V4-Flash 更激进,FLOPs 10%、KV cache 7%。翻译成钱:之前跑 1M context 推理你需要租满血 H100 集群,现在 V4 在同样 token 量下显存占用直接砍掉 90%。MIT Tech Review 给的判断很直接:closes the gap with frontier models —— 开源模型第一次能在长上下文场景咬住 GPT-5.5 和 Claude Opus 4.6。Simon Willison 在他 blog 里测完直接说 almost on the frontier, a fraction of the price。

对工程师的实操线索:第一,做 RAG / Code Review / 法律合同分析这类「上下文吃 100K+」的场景,立刻测 V4-Flash —— 单 token 推理成本是同档闭源模型的零头。第二,如果你之前在跑 Llama 3 / Qwen 系列 + vLLM 自托管,本周就该把 V4 weight pull 下来对比 benchmark。第三,做 Agent 的,1M context 意味着「工作记忆 + 工具历史 + 规划 chain」可以全塞 prompt 不用 RAG,Agent 设计接下来会朝「超长 in-context」演化。

> 来源: Simon Willison's Weblog · TechCrunch · MIT Technology Review

---

2. Kimi K2.6 开源登顶:13 小时连续编码 + 300 子 Agent 并发

Kimi K2.6 开源

一句话: 1T MoE / 32B 激活,国产开源第一次在「长程编码 + 多 Agent 编排」两个工程场景同时压制 GPT-5.4 与 Claude Opus 4.6。

月之暗面 04-20 正式发布并开源 Kimi K2.6。模型本身是 1T 总参 / 32B 激活的 MoE 架构,统一上下文窗口 256K。它的卖点不是参数大小 —— 是 Agent 工程能力。单 Agent 模式下它能连续编码 13 小时、写或改 4000+ 行代码不停;Agent 集群模式下,它可以动态拆任务、自主生成专门的子 Agent,最多并行调度 300 个子 Agent 完成 4000 个协作步骤。在多个 benchmark 上,K2.6 是第一个在「代码 + 长程任务」两个维度同时压过 GPT-5.4 和 Claude Opus 4.6 的开源模型。

和今天另一条 DeepSeek V4 放在一起看,国产开源的两条路线就清晰了。DeepSeek V4 押的是「foundation model 通吃 —— 1.6T 参数 + 1M 上下文 + 推理成本砍 90%」,走的是覆盖范围;Kimi K2.6 押的是「Agent 工程化 —— 13 小时不掉链子 + 300 子 Agent 并发」,走的是工程级可靠性。两条路线都对,解决的是不同问题。Kimi 把模型直接做成「能接进 CI/CD pipeline 跑半天活的数字员工」,比 demo 级 Agent 高一个量级。同步动作是 K2.6 API 涨价 58%,月之暗面在赌「企业客户愿意为可靠的长程作业付钱」。

实操线索:做 Code Agent、自动化重构、legacy codebase 升级的人,把 K2.6 当 Claude Code 工作流 的开源平替直接测。做 multi-agent 编排(CrewAI / AutoGen / LangGraph)的,把 orchestrator 切到 K2.6 试一下「子 Agent 并发上限」是不是真能撑 300 路。对 prompt 工程师来说要换思路 —— prompt 设计开始往工作流编排靠,不再是「写一段 prompt 让模型一口气出结果」。

> 来源: IT之家 · Kimi 官方博客 · 21 经济网

---

3. Cursor 谈 20 亿美元融资 / 500 亿美元估值,Nvidia 首次出手押 AI 应用层

Cursor 估值跳升

一句话: Andreessen Horowitz 领投,Nvidia + Thrive 跟投,半年估值翻倍。Nvidia 第一次投 AI 应用层信号大于钱本身。

CNBC 04-19 率先披露:AI 代码 IDE 公司 Cursor 正在洽谈一轮 20 亿美元融资,对应估值 500 亿美元以上。这一轮由 Andreessen Horowitz 领投,Nvidia 和 Thrive Capital 跟投。Cursor 上一轮估值还在 250 亿美元附近,6 个月不到估值翻倍。这是 AI 应用层赛道第一次出现「单 IDE 产品估值 500 亿美元」的报价 —— 比绝大多数中型 SaaS 上市公司市值都高。

为什么 Cursor 能拿到这种估值?三个原因。第一,AI Coding 是目前 LLM 应用层 ARR 增速最快的细分赛道,Cursor 的 ARR 在过去 12 个月连续 6 个季度环比 50% 以上增长,已经把 GitHub Copilot 在专业开发者群体里的份额挤掉相当一部分。第二,Cursor 已经从「IDE」演化成「Coding Agent 平台」 —— 它的 Composer / Agent 模式直接对标 Claude Code、Codex 这类 agent 产品,护城河变厚。第三,Nvidia 这次跟投信号意义大于钱本身:Nvidia 之前只投基础模型公司(OpenAI、Anthropic、xAI、Mistral),第一次出手押 AI 应用层头部产品,等于在为下一轮 GPU 需求提前绑定关键工具客户 —— Cursor 跑在哪家云上、用谁的 GPU 推理,对 Nvidia 是真金白银的下游订单。

求职端 signal 很强:Cursor 拿到这笔钱必然激进招人,加上 Replit Agent、Bolt、Vercel v0 这一票 AI dev tools 公司同时扩张,AI Engineer 岗位池子接下来 12 个月会持续打开。会前端 + 会用 LLM 写工具调用 + 懂 IDE 内部架构的工程师是最稀缺的组合,比纯 LLM 工程师待遇还高。对个人开发者:现在不学 Cursor / Claude Code / Codex 三个里至少一个,2026 下半年简历会直接落后一个身位 —— 这个工具栈已经从「可选」变成「基本素养」。

> 来源: CNBC

---

4. Adobe Summit 把 Experience Cloud 改名 CX Enterprise,推 Coworker 数字员工

Adobe CX Enterprise

一句话: 营销栈第一次按 Agent 优先重构,Coworker 跑在 MCP + A2A 开放协议上,可以挂第三方 Agent。

Adobe Summit 2026 04-20 一口气甩了几个大动作。最重要的:Experience Cloud 这个用了十几年的产品线名字被整体改名为 CX Enterprise,同步推出 CX Enterprise Coworker —— 一个完整的 agentic AI 系统,可以跨 Adobe + AWS + Anthropic + Google Cloud + Microsoft + OpenAI 平台编排客户体验工作流,不再是「工具集合」,而是真正能监听信号、推荐 next-best-action、跨多渠道实时执行的数字员工。配套发布的还有 Engagement Intelligence(升级版决策引擎)、Journey Optimizer Loyalty(游戏化忠诚度)、CX Analytics(统一洞察)、Real-Time CDP 扩容。

为什么这件事比改名重要?这是企业级 SaaS 公司第一次把整个产品线从「工具集合」彻底重构成「Agent 编排平台」。过去十年 Adobe Experience Cloud 是给营销人员手工配 journey、配规则、配 A/B 实验;现在 CX Enterprise 的核心是 Coworker:营销人员描述目标,Coworker 自己拆任务、自己跨工具执行、人留在审批节点。最关键的细节是协议选择 —— Coworker 跑在 MCP(Model Context Protocol)+ A2A(Agent-to-Agent)这两个开放协议上,意味着第三方 Agent 可以挂进来、Coworker 也可以挂出去到别人的平台。Adobe 在赌一个非常具体的位置:成为 enterprise Agent 编排的中枢平台。配合 Google Cloud Next 2026 上的 A2A 联盟(150+ 组织加入),MCP/A2A 这套协议正在快速变成企业 Agent 的事实标准。

实操线索:做营销自动化、CRM、CDP、客服系统的工程师,立刻去看 MCP 协议规范(Anthropic 维护)和 A2A 协议(Google 主推) —— 这两个协议接下来 12 个月会从「实验性 spec」变成「企业必学」。写 Adobe / Salesforce / HubSpot 集成的工程师,角色会从「写 ETL 同步数据」变成「设计 Agent playbook」。新的复合岗位会爆发:prompt 工程师 + 营销/运营背景。对个人开发者,2026 下半年值得花时间做一个开源 demo —— 比如「我自己的 MCP server,把 Notion / Slack / Gmail 接出来给 Claude Code 用」,这个能力直接就能写进简历。

> 来源: Adobe News - CX Enterprise 总览 · Adobe Unveils CX Enterprise Coworker · MarTech

---

5. TSMC 北美 Symposium:A13 + N2U + 14-reticle CoWoS,AI 芯片瓶颈彻底转向先进封装

TSMC A13 路线图

一句话: 14-reticle CoWoS 单封装可塞 10 大 die + 20 HBM 2028 量产,凤凰城再购 900 英亩做先进封装本土化。

TSMC 04-22 在加州 Santa Clara 开 2026 北美技术 Symposium,一次性公布了三个量级的更新。第一个是 A13 工艺:在 2025 年公布的 A14 节点基础上做 direct shrink,面积省 6%、设计规则完全后向兼容、2029 进入量产。第二个是 N2U:基于 N2P 做 design-technology co-optimization,速度提升 3-4% 或功耗降低 8-10%、逻辑密度再涨 1.02-1.03 倍,2028 量产。第三个是先进封装路线图升级:现役 5.5-reticle CoWoS 之外,14-reticle CoWoS 提上日程 —— 单封装可以塞约 10 颗大型计算 die + 20 个 HBM 堆栈,2028 量产。同时 TSMC 董事会批准在亚利桑那 Phoenix 再购入 900 英亩土地,2029 前建成 CoWoS + 3D-IC 美国本土产能。

翻译成普通话:AI 训练芯片的瓶颈早已经不是「单 die 跑多快」,而是「我能在一个封装里塞多少个 die、塞多少 HBM、互联带宽多大」。Nvidia GB200 用的是 2 颗 Blackwell die + 8 个 HBM,AMD MI400 类似量级;现在 14-reticle CoWoS 把上限直接提到 10 大 die + 20 HBM —— 等于一个封装就是一台老式服务器机架的算力密度。下一代 Nvidia / AMD / Google TPU / AWS Trainium 几乎都会跑在这个新 CoWoS 平台上,没有第二条路。同时 Phoenix 这块 900 英亩地皮意义重大 —— 之前 TSMC 美国厂主要做晶圆制造,先进封装一直留在台湾,现在把先进封装本土化等于把 Nvidia / AMD 整条 AI 供应链拉到美国境内。

对工程师的实操线索:做 ML infra、模型部署、推理优化的人,未来 2 年要习惯「单芯片就是系统」这个新范式 —— 模型并行策略(tensor parallel / expert parallel / context parallel)、KV cache 拆分、attention sharding、kernel fusion 这些技能从「研究方向」变成「工程必修」。硬件岗位的口袋会被 AI 资本重新装满 —— chip packaging engineer、advanced thermal engineer、SI/PI engineer、co-packaged optics engineer 这些之前小众的硬件岗位接下来 2-3 年会出现大幅薪资涨幅,硬件工程师转 AI infra 是一个被严重低估的窗口。做 LLM serving 的人盯住 vLLM / SGLang / TensorRT-LLM 这些推理引擎对新封装的支持节奏。

> 来源: Business Wire / TSMC 官方 · Data Center Dynamics

---

关注 JR Academy

想每天 9 点收到 AI 日报?关注 JR Academy 公众号 · 回复「AI 日报」自动订阅。历史日报全开放:jiangren.com.au/blog

学完今天 5 条新闻,建议同步看:

作者
一键分享或复制链接

相关文章推荐

查看全部文章 →