配置 LLM 提供商
配置 LLM 提供商
你可能在引导向导里已经选了一个模型,但 OpenClaw 真正强大的地方在于:你可以配多个模型让它根据任务自动选。我一开始图省事全用 GPT-5,今年一月跑了一个月下来一看账单——$47。我当时就懵了。后来改成智能路由,二月份的费用直接降到 $18 左右,省了差不多 60%。
支持的提供商
OpenClaw 不绑死任何特定模型,这点我觉得比很多竞品都想得开。目前主流选择说一下:
OpenAI(GPT-5、GPT-4o-mini)通用能力最强,生态最成熟,费用中等。大部分人的首选,没啥毛病。
Anthropic(Claude Sonnet 4.6)长文本、代码和推理能力很突出。说实话写代码我个人觉得 Claude 比 GPT-5 还好用一些,虽然这个观点在群里经常被喷...
Google(Gemini 3 Pro)多模态和长上下文是它的优势,费用相对低。但稳定性嘛,怎么说呢,偶尔会抽风。
本地模型(Ollama + Llama/Qwen)完全离线运行零 API 费用,但需要比较好的硬件。没有 GPU 就别想了啊。
国内模型(通义千问、DeepSeek、智谱)中文能力好费用极低,国内访问速度快。群里老刘一直在安利 DeepSeek,说性价比无敌。
基础配置
三种方式选一种就行。
通过向导(最简单):
openclaw config model
手动编辑配置文件(注意是 JSON5 格式,支持注释和尾逗号):
// ~/.openclaw/openclaw.json
{
ai: {
provider: 'openai',
model: 'gpt-5',
apiKey: 'sk-...'
}
}
或者用环境变量:
export OPENAI_API_KEY="sk-..."
export ANTHROPIC_API_KEY="sk-ant-..."
export GOOGLE_AI_API_KEY="..."
各提供商配置示例
OpenAI
{
"ai": {
"provider": "openai",
"model": "gpt-5",
"apiKey": "sk-..."
}
}
补充一点:OpenAI 支持 OAuth 登录流程——跑 openclaw onboard 的时候会弹出浏览器让你用 OpenAI 账号授权,不用手动复制粘贴 API Key。这个 OAuth 是在引导向导阶段就完成的,授权后 Token 自动存到本地,省心不少。
Anthropic(Claude)
{
"ai": {
"provider": "anthropic",
"model": "claude-sonnet-4-6",
"apiKey": "sk-ant-..."
}
}
Anthropic 推荐用 API Key 而不是 OAuth。
Google Gemini
{
"ai": {
"provider": "google",
"model": "gemini-3-pro",
"apiKey": "..."
}
}
本地模型(Ollama)
完全离线运行,适合隐私敏感场景:
# 先安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 下载模型
ollama pull llama3.3
配 OpenClaw 连本地模型:
{
"ai": {
"provider": "ollama",
"model": "llama3.3",
"baseUrl": "http://localhost:11434"
}
}
说句实在话吧,本地模型跟云端大模型比效果还是有差距的,特别是复杂推理任务差得明显。但如果你的数据确实不能传到外部嘛那也没别的选择了。我之前还傻乎乎地以为 7B 的模型能跟 GPT-5 一样好用,跑了几天就放弃了——
国内模型(省钱方案)
通义千问、DeepSeek 这些费用是真的低,中文能力也不差:
{
"ai": {
"provider": "openai-compatible",
"model": "qwen-plus",
"apiKey": "...",
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1"
}
}
大多数国内模型都支持 OpenAI 兼容 API,provider 设成 openai-compatible 再配上对应 baseUrl 就行。这个兼容模式省了很多麻烦,说白了就是国内厂商都主动兼容 OpenAI 的接口格式了。
/think 命令:控制推理深度
这个功能很实用但知道的人不多。在对话中发 /think <level> 可以控制 AI 的推理深度,直接影响响应质量和 Token 消耗:
| 级别 | 说明 | 适用场景 |
|---|---|---|
/think off | 关闭深度推理 | 简单问答、闲聊 |
/think low | 轻度推理 | 日常任务 |
/think medium | 中等推理 | 一般分析任务 |
/think high | 深度推理 | 复杂逻辑、代码架构 |
/think xhigh | 极致推理 | 数学证明、疑难 debug |
说白了就是花钱买质量嘛。off 和 low 省 Token 但回答比较浅,high 和 xhigh 贵但确实能解决一些 low 搞不定的问题。我一般默认 low,碰到棘手的再手动 /think high。这是按会话生效的,不影响全局配置。
智能路由:按任务选模型
这是最省钱的用法,也是我个人觉得 OpenClaw 最聪明的设计之一。
{
"ai": {
"routing": {
"default": "gpt-4o-mini",
"complex": "gpt-5",
"coding": "claude-sonnet-4-6",
"chinese": "qwen-plus"
}
}
}
思路很简单嘛:日常闲聊用便宜的 GPT-4o-mini(大概 $0.15/1M tokens),碰到复杂推理才调 GPT-5,写代码用 Claude(代码生成确实更强,这个不服不行),中文任务丢给通义千问。
实际用了两个月下来,大部分日常任务 GPT-4o-mini 就够了。你猜怎么着?账单从四十多刀直接降到二十以下了,效果也没觉得差多少。
Failover 配置
主模型 API 挂了咋办?配个 failover 自动切换:
{
"ai": {
"provider": "openai",
"model": "gpt-5",
"apiKey": "sk-...",
"failover": [
{
"provider": "anthropic",
"model": "claude-sonnet-4-6",
"apiKey": "sk-ant-..."
},
{
"provider": "ollama",
"model": "llama3.3"
}
]
}
}
如果你把 OpenClaw 当正经生产工具用的话强烈建议配上 failover 啊。OpenAI 偶尔抽风这事大家都知道的对吧?上个月有一次 API 挂了将近一小时,群里好多人都在喊"龙虾不动了",其实是 OpenAI 的问题——配了 failover 的人完全没受影响。
API Key 安全
密钥存在这两个地方:API Key 在 ~/.openclaw/agents/<agentId>/agent/auth-profiles.json,OAuth 凭证在 ~/.openclaw/credentials/oauth.json。
几个安全建议吧:
- 不要把 API Key 提交到 Git——说起来简单但真有人干过这事,群里小王就是,Key 被人扫到一晚上刷了 $200 多
- 在各提供商后台设月度额度上限,这个千万别忘
- 定期轮换 Key
- 用 OpenClaw 自带的 Key Rotation 功能自动轮换
Key Rotation 配置:
{
"ai": {
"apiKeys": ["sk-key1...", "sk-key2...", "sk-key3..."],
"keyRotation": "round-robin"
}
}
不同角色的模型选择
学生或者纯体验的嘛 GPT-4o-mini 或 DeepSeek 就够了,每月 ¥5-20 的事。个人日常使用推荐 GPT-4o-mini + GPT-5 智能路由,大概 ¥30-80。开发者可以上 Claude Sonnet 4.6 + GPT-5 的组合,¥50-150 左右吧。隐私优先的上 Ollama 本地模型,免费但得有好显卡。团队和企业建议多提供商 + failover + 限流,费用按用量走。
对了忘说了,如果你就是学生党预算有限,DeepSeek 真的可以试试。中文场景下效果跟 GPT-4o-mini 差不太多,价格便宜一大截呢。
验证模型配置
# 查看当前模型配置(注意配置文件是 openclaw.json)
openclaw config show
# 测试模型连通性
openclaw health
# 查看 Token 用量
openclaw usage
常见问题
Q: API Key 报错 401?
先检查 Key 是不是过期了或者额度用完了,然后确认 Key 权限是否包含对应模型。OpenAI 的 Key 有时候需要在后台单独开通某些模型的访问权限,这个坑我踩过——新建的 Key 默认没有 GPT-5 的权限,得手动勾上。
Q: 响应很慢?
切个更快的模型试试(比如 GPT-4o-mini)。国内用户用海外模型延迟大是正常的,考虑换国内模型或者挂代理吧。
Q: 怎么控制每月花费?
三板斧嘛:在模型提供商后台设月度额度上限;用智能路由别所有任务都怼贵的模型上;定期 openclaw usage 看看用量。说实话第二点最管用,光这一个改动就能省一半多。
模型配好了接下来可以去探索 OpenClaw 内置的 49 个技能了。试着在聊天里问你的 AI 助手:"你都会些什么?"——看看它怎么回答吧。