logo
Gemini 使用指南
Vibe Coding

Gemini 使用指南

Google Gemini 是 Google 最新的多模态 AI 模型,支持文本、图像、音频和视频理解。

Gemini 使用指南模型对比

Gemini 模型对比(官方模型列表版)

更新时间:2026-01-11 数据来源:Google AI for Developers - Models

本页聚焦 Gemini API 的官方模型清单与快速选型建议。模型版本与能力更新很快,部署前请以官方 models 页面为准。

Gemini Models
Gemini Models

#当前主流模型一览

模型定位模型名称API Model Code输入类型(官方描述)输入上限输出上限适用场景
最强旗舰(预览)Gemini 3 Progemini-3-pro-previewText, Image, Video, Audio, PDF1,048,576 tokens65,536 tokens高难度推理、复杂多模态、Agent/Vibe Coding 复杂流程
高速旗舰(预览)Gemini 3 Flashgemini-3-flash-previewText, Image, Video, Audio, PDF1,048,576 tokens65,536 tokens速度优先的多模态与工具链交互
平衡性能Gemini 2.5 Progemini-2.5-proAudio, images, video, text, PDF1,048,576 tokens65,536 tokens通用高质量文本+多模态、复杂任务
高速/成本Gemini 2.5 Flashgemini-2.5-flashText, images, video, audio1,048,576 tokens65,536 tokens低延迟交互、实时分析、批处理
轻量高速Gemini 2.5 Flash-Litegemini-2.5-flash-liteText, image, video, audio, PDF1,048,576 tokens65,536 tokens成本敏感的大规模调用
旧代高速Gemini 2.0 Flashgemini-2.0-flashAudio, images, video, text1,048,576 tokens8,192 tokens轻量场景、兼容旧任务
旧代轻量Gemini 2.0 Flash-Litegemini-2.0-flash-liteAudio, images, video, text1,048,576 tokens8,192 tokens超低成本批处理

备注:以上输入/输出上限与输入类型均来自官方 models 页面当前公开信息。

#选型建议(快速决策)

  • 追求最高质量与复杂推理:优先 gemini-3-pro-preview,需要稳定性时用 gemini-2.5-pro
  • 速度优先、成本更敏感:选 gemini-3-flash-previewgemini-2.5-flash
  • 批量/低成本调用gemini-2.5-flash-lite 是性价比选项;老项目可沿用 gemini-2.0-flash-lite
  • 多模态输入:上述主流模型均支持文本 + 图像/音频/视频(部分支持 PDF),差异以官方说明为准。

#命名与版本说明

  • Pro:旗舰质量,擅长复杂推理与长上下文。
  • Flash:速度与成本平衡,适合高并发与实时应用。
  • Flash-Lite:更低成本版本,适合规模化批处理。
  • Preview:预览版本更新更快,但稳定性与兼容性需要关注。

#实践建议

  1. 先用 Flash 打样:确认结构化输出与工具调用流程,再升 Pro 优化质量。
  2. 长上下文场景:优先 2.5/3 系列,避免旧代模型输出上限过小。
  3. 上线前做基准测试:同一任务分别对 Pro/Flash/Lite 评测成本与准确率。

#参考链接


本页面由匠人学院 Wiki 系统维护。