Gemini API 开发者指南
Source: Google AI SDK Documentation Target: Frontend & Backend Developers Estimated Time: 20 mins
Gemini 模型家族
在调用 API 之前,你需要根据场景选择合适的模型:
- Gemini 1.5 Pro: 全能王者。超长 Context Window (可达 200万 tokens),适合分析整本书或长视频。
- Gemini 1.5 Flash: 性能小钢炮。速度极快,成本极低,适合大规模实时应用。
- Gemini 1.0 Ultra: 专为最复杂的逻辑推理设计。
快速上手 (Quick Start)
1. 获取 API Key
访问 Google AI Studio 免费申请你的 API Key。
2. Python 代码示例
安装 SDK:
pip install -q -U google-generativeai
核心代码:
import google.generativeai as genai
import os
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel('gemini-1.5-flash')
response = model.generate_content("如何用中英混用风格写一个 code review 注释?")
print(response.text)
核心功能:System Instructions
与模型对话时,你可以预设一个“永久身份”。
model = genai.GenerativeModel(
model_name="gemini-1.5-pro",
system_instruction="你是一个资深的 Solution Architect。请用 Professional 且有帮助的语气回答问题。"
)
开发者选型建议:Vertex AI vs. AI Studio
| 特性 | Google AI Studio | Vertex AI (Google Cloud) |
|---|---|---|
| 定位 | 快速原型、个人开发者 | 企业级应用、生产环境 |
| 价格 | 免费额度高 | 按量付费 |
| 安全性 | 基础级别 | 企业级安全与合规保障 |
| 集成 | 简单易用 | 与 GCP 全家桶深度集成 |
建议:如果是做 demo 或个人项目,用 AI Studio;如果是公司正式上线的产品,请使用 Vertex AI。
多模态调用 (Multimodal)
Gemini 的强大之处在于可以直接把文件传给模型。
sample_file = genai.upload_file(path="dashboard_error.png")
response = model.generate_content([sample_file, "帮我分析这个报错并给出 fix 方案"])
Pro Tip: 利用 Gemini 的 Prompt Caching 功能,如果你有大量重复的上下文(如一份 1000 页的说明书),可以大幅降低 Token 费用。