logo

Gemini 模型对比(官方模型列表版)

更新时间:2026-03-11 数据来源:Google AI for Developers 官方 Models 页面
链接:https://ai.google.dev/gemini-api/docs/models

模型页是这组内容里最容易过时的一页,所以这篇我尽量只保留“今天还能站得住”的信息,并把选型判断写得更保守一点。你真正上线前,还是应该再看一眼官方 models 页面。

1. 先说一个重要变化

根据 Google 官方 models 页面,Gemini 3 Pro Preview 已在 2026 年 3 月 9 日关闭,官方提示迁移到 Gemini 3.1 Pro Preview

这类变化对实际项目影响很大,因为很多团队会在 prompt、路由或模型白名单里直接写死模型名。只要模型下线,线上流程就会直接出问题。

所以我会先给一个很实际的建议:

  • 预览模型可以试,但不要把“还没验证的 preview 名称”当成长期稳定依赖
  • 生产环境优先看 stable 或明确可控的版本字符串

2. 当前主流模型怎么理解

基于 2026 年 3 月 11 日官方页面,当前比较值得关注的主力型号大致是这些:

模型当前定位更适合什么任务
gemini-3.1-pro / gemini-3.1-pro-preview最新高能力 Pro 路线高难度推理、复杂 agent、重度编码任务
gemini-3-flash高性能 Flash 路线速度优先的多模态与工具链交互
gemini-2.5-pro稳定的高质量通用主力复杂任务、长上下文、多模态深任务
gemini-2.5-flash当前很实用的平衡型号日常交互、低延迟应用、批量流程
gemini-2.5-flash-lite更低成本选择大规模调用、成本敏感场景

Google 官方页面还列出了:

  • Gemini 2.5 Flash Live Preview
  • Gemini 2.5 Flash TTS Preview
  • Gemini 2.5 Pro TTS Preview

这些更偏音频、实时或语音方向,不适合和通用文本模型混着理解。

3. 已经不建议继续押旧代了

官方页面当前把 Gemini 2.0 FlashGemini 2.0 Flash-Lite 放在 previous / deprecated 区域。

这不代表它们立刻完全不能用,但如果你现在是新项目,我不建议再把选型停留在 2.0 代。原因很简单:

  • 你后面迟早还要迁移
  • 新能力、工具链和文档重心都在新代模型
  • 继续压旧代只会增加未来维护成本

如果只是兼容历史系统,那另说;如果是现在重新上项目,优先看 2.5 和 3.x 系列更合理。

4. 我会怎么做快速选型

如果你现在让我给一个尽量实用的选型建议,我会这样分:

日常主力

优先从 gemini-2.5-flash 开始。

原因不是它一定“最强”,而是很多真实应用最需要的是:

  • 够快
  • 够稳
  • 成本能接受

在这三件事里,它通常比较平衡。

高难度任务

如果你在做:

  • 复杂代码理解
  • 长链路 agent
  • 多模态深分析
  • 推理要求明显更高的任务

再去试更高能力的 Pro 路线,比如 gemini-2.5-pro 或当前更新的 3.x Pro 方向。

大规模低成本调用

如果你的任务更偏:

  • 批处理
  • 大量结构化抽取
  • 高并发但每次请求都不复杂

gemini-2.5-flash-lite 这种型号会更值得看。

5. 命名到底怎么理解

Google 这一套命名,最容易让人困惑的不是能力,而是“版本状态”。

可以先按这个思路理解:

  • Pro:更高能力、更适合复杂任务
  • Flash:更强调速度和成本平衡
  • Flash-Lite:更偏预算和规模
  • Preview:代表更新快,但稳定性和生命周期都要更小心

另外,官方页面也说明了模型字符串常见会分成:

  • stable
  • preview
  • latest
  • experimental

如果你在做生产系统,我通常不建议一上来就押 latest。因为 alias 被热切换时,你的输出表现也可能跟着变。

6. 一个更接近真实工作的建议

很多团队模型选型做复杂了,其实是因为一上来就在问“哪个公司最强”。更有用的问法通常是:

  • 这个任务是否真的需要 Pro
  • 如果换成 Flash,结果会差多少
  • 差出来的那部分,值不值得那笔成本

这个判断比背模型榜单重要得多。

7. 上线前至少做一次对比测试

如果你已经选到候选模型,我会建议至少做一轮自己的小型 benchmark:

  1. 选 10 到 20 个真实任务样本
  2. 用候选模型各跑一遍
  3. 记录质量、延迟、成本、结构化输出稳定性
  4. 再决定默认模型

因为官方文档能告诉你能力方向,但不能替你判断“这个模型在你的任务里值不值”。

参考链接

小结

如果只压缩成几句话,我会这样记:

  1. Gemini 2.5 Flash 很适合作为大多数任务的起点。
  2. 更复杂的推理和 agent 任务,再往 Pro 路线走。
  3. 2.0 代对新项目已经不太值得继续押。
  4. Preview 很值得试,但不要默认它是长期稳定依赖。
Gemini 使用指南
Vibe Coding

Gemini 使用指南

Google Gemini 是 Google 最新的多模态 AI 模型,支持文本、图像、音频和视频理解。

Gemini 使用指南模型对比

Gemini 模型对比(官方模型列表版)

更新时间:2026-03-11 数据来源:Google AI for Developers 官方 Models 页面
链接:https://ai.google.dev/gemini-api/docs/models

模型页是这组内容里最容易过时的一页,所以这篇我尽量只保留“今天还能站得住”的信息,并把选型判断写得更保守一点。你真正上线前,还是应该再看一眼官方 models 页面。

#1. 先说一个重要变化

根据 Google 官方 models 页面,Gemini 3 Pro Preview 已在 2026 年 3 月 9 日关闭,官方提示迁移到 Gemini 3.1 Pro Preview

这类变化对实际项目影响很大,因为很多团队会在 prompt、路由或模型白名单里直接写死模型名。只要模型下线,线上流程就会直接出问题。

所以我会先给一个很实际的建议:

  • 预览模型可以试,但不要把“还没验证的 preview 名称”当成长期稳定依赖
  • 生产环境优先看 stable 或明确可控的版本字符串

#2. 当前主流模型怎么理解

基于 2026 年 3 月 11 日官方页面,当前比较值得关注的主力型号大致是这些:

模型当前定位更适合什么任务
gemini-3.1-pro / gemini-3.1-pro-preview最新高能力 Pro 路线高难度推理、复杂 agent、重度编码任务
gemini-3-flash高性能 Flash 路线速度优先的多模态与工具链交互
gemini-2.5-pro稳定的高质量通用主力复杂任务、长上下文、多模态深任务
gemini-2.5-flash当前很实用的平衡型号日常交互、低延迟应用、批量流程
gemini-2.5-flash-lite更低成本选择大规模调用、成本敏感场景

Google 官方页面还列出了:

  • Gemini 2.5 Flash Live Preview
  • Gemini 2.5 Flash TTS Preview
  • Gemini 2.5 Pro TTS Preview

这些更偏音频、实时或语音方向,不适合和通用文本模型混着理解。

#3. 已经不建议继续押旧代了

官方页面当前把 Gemini 2.0 FlashGemini 2.0 Flash-Lite 放在 previous / deprecated 区域。

这不代表它们立刻完全不能用,但如果你现在是新项目,我不建议再把选型停留在 2.0 代。原因很简单:

  • 你后面迟早还要迁移
  • 新能力、工具链和文档重心都在新代模型
  • 继续压旧代只会增加未来维护成本

如果只是兼容历史系统,那另说;如果是现在重新上项目,优先看 2.5 和 3.x 系列更合理。

#4. 我会怎么做快速选型

如果你现在让我给一个尽量实用的选型建议,我会这样分:

#日常主力

优先从 gemini-2.5-flash 开始。

原因不是它一定“最强”,而是很多真实应用最需要的是:

  • 够快
  • 够稳
  • 成本能接受

在这三件事里,它通常比较平衡。

#高难度任务

如果你在做:

  • 复杂代码理解
  • 长链路 agent
  • 多模态深分析
  • 推理要求明显更高的任务

再去试更高能力的 Pro 路线,比如 gemini-2.5-pro 或当前更新的 3.x Pro 方向。

#大规模低成本调用

如果你的任务更偏:

  • 批处理
  • 大量结构化抽取
  • 高并发但每次请求都不复杂

gemini-2.5-flash-lite 这种型号会更值得看。

#5. 命名到底怎么理解

Google 这一套命名,最容易让人困惑的不是能力,而是“版本状态”。

可以先按这个思路理解:

  • Pro:更高能力、更适合复杂任务
  • Flash:更强调速度和成本平衡
  • Flash-Lite:更偏预算和规模
  • Preview:代表更新快,但稳定性和生命周期都要更小心

另外,官方页面也说明了模型字符串常见会分成:

  • stable
  • preview
  • latest
  • experimental

如果你在做生产系统,我通常不建议一上来就押 latest。因为 alias 被热切换时,你的输出表现也可能跟着变。

#6. 一个更接近真实工作的建议

很多团队模型选型做复杂了,其实是因为一上来就在问“哪个公司最强”。更有用的问法通常是:

  • 这个任务是否真的需要 Pro
  • 如果换成 Flash,结果会差多少
  • 差出来的那部分,值不值得那笔成本

这个判断比背模型榜单重要得多。

#7. 上线前至少做一次对比测试

如果你已经选到候选模型,我会建议至少做一轮自己的小型 benchmark:

  1. 选 10 到 20 个真实任务样本
  2. 用候选模型各跑一遍
  3. 记录质量、延迟、成本、结构化输出稳定性
  4. 再决定默认模型

因为官方文档能告诉你能力方向,但不能替你判断“这个模型在你的任务里值不值”。

#参考链接

#小结

如果只压缩成几句话,我会这样记:

  1. Gemini 2.5 Flash 很适合作为大多数任务的起点。
  2. 更复杂的推理和 agent 任务,再往 Pro 路线走。
  3. 2.0 代对新项目已经不太值得继续押。
  4. Preview 很值得试,但不要默认它是长期稳定依赖。
Prompt Master

把 AI 工具用到极致,先掌握 Prompt

系统学习 Prompt 结构与技巧,提升输出稳定性与可控性。

进入 Prompt 大师 →