logo
04

配置 LLM 提供商

⏱️ 20分钟

配置 LLM 提供商

你可能在引导向导里已经选了一个模型,但 OpenClaw 真正强大的地方在于:你可以配多个模型让它根据任务自动选。我一开始图省事全用 GPT-5,今年一月跑了一个月下来一看账单——$47。我当时就懵了。后来改成智能路由,二月份的费用直接降到 $18 左右,省了差不多 60%。

支持的提供商

OpenClaw 不绑死任何特定模型,这点我觉得比很多竞品都想得开。目前主流选择说一下:

OpenAI(GPT-5、GPT-4o-mini)通用能力最强,生态最成熟,费用中等。大部分人的首选,没啥毛病。

Anthropic(Claude Sonnet 4.6)长文本、代码和推理能力很突出。说实话写代码我个人觉得 Claude 比 GPT-5 还好用一些,虽然这个观点在群里经常被喷...

Google(Gemini 3 Pro)多模态和长上下文是它的优势,费用相对低。但稳定性嘛,怎么说呢,偶尔会抽风。

本地模型(Ollama + Llama/Qwen)完全离线运行零 API 费用,但需要比较好的硬件。没有 GPU 就别想了啊。

国内模型(通义千问、DeepSeek、智谱)中文能力好费用极低,国内访问速度快。群里老刘一直在安利 DeepSeek,说性价比无敌。

基础配置

三种方式选一种就行。

通过向导(最简单):

openclaw config model

手动编辑配置文件(注意是 JSON5 格式,支持注释和尾逗号):

// ~/.openclaw/openclaw.json
{
	ai: {
		provider: 'openai',
		model: 'gpt-5',
		apiKey: 'sk-...'
	}
}

或者用环境变量:

export OPENAI_API_KEY="sk-..."
export ANTHROPIC_API_KEY="sk-ant-..."
export GOOGLE_AI_API_KEY="..."

各提供商配置示例

OpenAI

{
	"ai": {
		"provider": "openai",
		"model": "gpt-5",
		"apiKey": "sk-..."
	}
}

补充一点:OpenAI 支持 OAuth 登录流程——跑 openclaw onboard 的时候会弹出浏览器让你用 OpenAI 账号授权,不用手动复制粘贴 API Key。这个 OAuth 是在引导向导阶段就完成的,授权后 Token 自动存到本地,省心不少。

Anthropic(Claude)

{
	"ai": {
		"provider": "anthropic",
		"model": "claude-sonnet-4-6",
		"apiKey": "sk-ant-..."
	}
}

Anthropic 推荐用 API Key 而不是 OAuth。

Google Gemini

{
	"ai": {
		"provider": "google",
		"model": "gemini-3-pro",
		"apiKey": "..."
	}
}

本地模型(Ollama)

完全离线运行,适合隐私敏感场景:

# 先安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 下载模型
ollama pull llama3.3

配 OpenClaw 连本地模型:

{
	"ai": {
		"provider": "ollama",
		"model": "llama3.3",
		"baseUrl": "http://localhost:11434"
	}
}

说句实在话吧,本地模型跟云端大模型比效果还是有差距的,特别是复杂推理任务差得明显。但如果你的数据确实不能传到外部嘛那也没别的选择了。我之前还傻乎乎地以为 7B 的模型能跟 GPT-5 一样好用,跑了几天就放弃了——

国内模型(省钱方案)

通义千问、DeepSeek 这些费用是真的低,中文能力也不差:

{
	"ai": {
		"provider": "openai-compatible",
		"model": "qwen-plus",
		"apiKey": "...",
		"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1"
	}
}

大多数国内模型都支持 OpenAI 兼容 API,provider 设成 openai-compatible 再配上对应 baseUrl 就行。这个兼容模式省了很多麻烦,说白了就是国内厂商都主动兼容 OpenAI 的接口格式了。

/think 命令:控制推理深度

这个功能很实用但知道的人不多。在对话中发 /think <level> 可以控制 AI 的推理深度,直接影响响应质量和 Token 消耗:

级别说明适用场景
/think off关闭深度推理简单问答、闲聊
/think low轻度推理日常任务
/think medium中等推理一般分析任务
/think high深度推理复杂逻辑、代码架构
/think xhigh极致推理数学证明、疑难 debug

说白了就是花钱买质量嘛。offlow 省 Token 但回答比较浅,highxhigh 贵但确实能解决一些 low 搞不定的问题。我一般默认 low,碰到棘手的再手动 /think high。这是按会话生效的,不影响全局配置。

智能路由:按任务选模型

这是最省钱的用法,也是我个人觉得 OpenClaw 最聪明的设计之一。

{
	"ai": {
		"routing": {
			"default": "gpt-4o-mini",
			"complex": "gpt-5",
			"coding": "claude-sonnet-4-6",
			"chinese": "qwen-plus"
		}
	}
}

思路很简单嘛:日常闲聊用便宜的 GPT-4o-mini(大概 $0.15/1M tokens),碰到复杂推理才调 GPT-5,写代码用 Claude(代码生成确实更强,这个不服不行),中文任务丢给通义千问。

实际用了两个月下来,大部分日常任务 GPT-4o-mini 就够了。你猜怎么着?账单从四十多刀直接降到二十以下了,效果也没觉得差多少。

Failover 配置

主模型 API 挂了咋办?配个 failover 自动切换:

{
	"ai": {
		"provider": "openai",
		"model": "gpt-5",
		"apiKey": "sk-...",
		"failover": [
			{
				"provider": "anthropic",
				"model": "claude-sonnet-4-6",
				"apiKey": "sk-ant-..."
			},
			{
				"provider": "ollama",
				"model": "llama3.3"
			}
		]
	}
}

如果你把 OpenClaw 当正经生产工具用的话强烈建议配上 failover 啊。OpenAI 偶尔抽风这事大家都知道的对吧?上个月有一次 API 挂了将近一小时,群里好多人都在喊"龙虾不动了",其实是 OpenAI 的问题——配了 failover 的人完全没受影响。

API Key 安全

密钥存在这两个地方:API Key 在 ~/.openclaw/agents/<agentId>/agent/auth-profiles.json,OAuth 凭证在 ~/.openclaw/credentials/oauth.json

几个安全建议吧:

  1. 不要把 API Key 提交到 Git——说起来简单但真有人干过这事,群里小王就是,Key 被人扫到一晚上刷了 $200 多
  2. 在各提供商后台设月度额度上限,这个千万别忘
  3. 定期轮换 Key
  4. 用 OpenClaw 自带的 Key Rotation 功能自动轮换

Key Rotation 配置:

{
	"ai": {
		"apiKeys": ["sk-key1...", "sk-key2...", "sk-key3..."],
		"keyRotation": "round-robin"
	}
}

不同角色的模型选择

学生或者纯体验的嘛 GPT-4o-mini 或 DeepSeek 就够了,每月 ¥5-20 的事。个人日常使用推荐 GPT-4o-mini + GPT-5 智能路由,大概 ¥30-80。开发者可以上 Claude Sonnet 4.6 + GPT-5 的组合,¥50-150 左右吧。隐私优先的上 Ollama 本地模型,免费但得有好显卡。团队和企业建议多提供商 + failover + 限流,费用按用量走。

对了忘说了,如果你就是学生党预算有限,DeepSeek 真的可以试试。中文场景下效果跟 GPT-4o-mini 差不太多,价格便宜一大截呢。

验证模型配置

# 查看当前模型配置(注意配置文件是 openclaw.json)
openclaw config show

# 测试模型连通性
openclaw health

# 查看 Token 用量
openclaw usage

常见问题

Q: API Key 报错 401?

先检查 Key 是不是过期了或者额度用完了,然后确认 Key 权限是否包含对应模型。OpenAI 的 Key 有时候需要在后台单独开通某些模型的访问权限,这个坑我踩过——新建的 Key 默认没有 GPT-5 的权限,得手动勾上。

Q: 响应很慢?

切个更快的模型试试(比如 GPT-4o-mini)。国内用户用海外模型延迟大是正常的,考虑换国内模型或者挂代理吧。

Q: 怎么控制每月花费?

三板斧嘛:在模型提供商后台设月度额度上限;用智能路由别所有任务都怼贵的模型上;定期 openclaw usage 看看用量。说实话第二点最管用,光这一个改动就能省一半多。


模型配好了接下来可以去探索 OpenClaw 内置的 49 个技能了。试着在聊天里问你的 AI 助手:"你都会些什么?"——看看它怎么回答吧。