Gemini 模型对比(官方模型列表版)
更新时间:2026-03-11 数据来源:Google AI for Developers 官方 Models 页面
链接:https://ai.google.dev/gemini-api/docs/models
模型页是这组内容里最容易过时的一页,所以这篇我尽量只保留“今天还能站得住”的信息,并把选型判断写得更保守一点。你真正上线前,还是应该再看一眼官方 models 页面。
1. 先说一个重要变化
根据 Google 官方 models 页面,Gemini 3 Pro Preview 已在 2026 年 3 月 9 日关闭,官方提示迁移到 Gemini 3.1 Pro Preview。
这类变化对实际项目影响很大,因为很多团队会在 prompt、路由或模型白名单里直接写死模型名。只要模型下线,线上流程就会直接出问题。
所以我会先给一个很实际的建议:
- 预览模型可以试,但不要把“还没验证的 preview 名称”当成长期稳定依赖
- 生产环境优先看 stable 或明确可控的版本字符串
2. 当前主流模型怎么理解
基于 2026 年 3 月 11 日官方页面,当前比较值得关注的主力型号大致是这些:
| 模型 | 当前定位 | 更适合什么任务 |
|---|---|---|
gemini-3.1-pro / gemini-3.1-pro-preview | 最新高能力 Pro 路线 | 高难度推理、复杂 agent、重度编码任务 |
gemini-3-flash | 高性能 Flash 路线 | 速度优先的多模态与工具链交互 |
gemini-2.5-pro | 稳定的高质量通用主力 | 复杂任务、长上下文、多模态深任务 |
gemini-2.5-flash | 当前很实用的平衡型号 | 日常交互、低延迟应用、批量流程 |
gemini-2.5-flash-lite | 更低成本选择 | 大规模调用、成本敏感场景 |
Google 官方页面还列出了:
Gemini 2.5 Flash Live PreviewGemini 2.5 Flash TTS PreviewGemini 2.5 Pro TTS Preview
这些更偏音频、实时或语音方向,不适合和通用文本模型混着理解。
3. 已经不建议继续押旧代了
官方页面当前把 Gemini 2.0 Flash 和 Gemini 2.0 Flash-Lite 放在 previous / deprecated 区域。
这不代表它们立刻完全不能用,但如果你现在是新项目,我不建议再把选型停留在 2.0 代。原因很简单:
- 你后面迟早还要迁移
- 新能力、工具链和文档重心都在新代模型
- 继续压旧代只会增加未来维护成本
如果只是兼容历史系统,那另说;如果是现在重新上项目,优先看 2.5 和 3.x 系列更合理。
4. 我会怎么做快速选型
如果你现在让我给一个尽量实用的选型建议,我会这样分:
日常主力
优先从 gemini-2.5-flash 开始。
原因不是它一定“最强”,而是很多真实应用最需要的是:
- 够快
- 够稳
- 成本能接受
在这三件事里,它通常比较平衡。
高难度任务
如果你在做:
- 复杂代码理解
- 长链路 agent
- 多模态深分析
- 推理要求明显更高的任务
再去试更高能力的 Pro 路线,比如 gemini-2.5-pro 或当前更新的 3.x Pro 方向。
大规模低成本调用
如果你的任务更偏:
- 批处理
- 大量结构化抽取
- 高并发但每次请求都不复杂
那 gemini-2.5-flash-lite 这种型号会更值得看。
5. 命名到底怎么理解
Google 这一套命名,最容易让人困惑的不是能力,而是“版本状态”。
可以先按这个思路理解:
- Pro:更高能力、更适合复杂任务
- Flash:更强调速度和成本平衡
- Flash-Lite:更偏预算和规模
- Preview:代表更新快,但稳定性和生命周期都要更小心
另外,官方页面也说明了模型字符串常见会分成:
- stable
- preview
- latest
- experimental
如果你在做生产系统,我通常不建议一上来就押 latest。因为 alias 被热切换时,你的输出表现也可能跟着变。
6. 一个更接近真实工作的建议
很多团队模型选型做复杂了,其实是因为一上来就在问“哪个公司最强”。更有用的问法通常是:
- 这个任务是否真的需要 Pro
- 如果换成 Flash,结果会差多少
- 差出来的那部分,值不值得那笔成本
这个判断比背模型榜单重要得多。
7. 上线前至少做一次对比测试
如果你已经选到候选模型,我会建议至少做一轮自己的小型 benchmark:
- 选 10 到 20 个真实任务样本
- 用候选模型各跑一遍
- 记录质量、延迟、成本、结构化输出稳定性
- 再决定默认模型
因为官方文档能告诉你能力方向,但不能替你判断“这个模型在你的任务里值不值”。
参考链接
- Google AI for Developers Models 页面:https://ai.google.dev/gemini-api/docs/models
- Gemini API 文档首页:https://ai.google.dev/docs
小结
如果只压缩成几句话,我会这样记:
Gemini 2.5 Flash很适合作为大多数任务的起点。- 更复杂的推理和 agent 任务,再往 Pro 路线走。
2.0代对新项目已经不太值得继续押。- Preview 很值得试,但不要默认它是长期稳定依赖。