为什么需要它
- 多 provider 容灾 — 单一 API 挂了不慌,自动切到下一个
- 模型路由 — 不同任务用不同模型,写代码用 Claude,日常对话用 GPT,兜底用 GLM
- 多通道投递 — 同一条消息可以推到 Discord、钉钉、飞书,不写集成代码
- 定时任务 — Cron 内置支持,定时抓 RSS、发日报、跑监控
- 统一管理 — 本地一份配置,rsync 到远端,多节点一致
核心概念
Provider
- 典型表现
- 一个 LLM API 接入点。比如
foxcode是 Anthropic 官方直连,cliproxy是多站点中转,zai是 GLM 兜底。每个 provider 有自己的 API 地址、认证方式和模型列表。 - 判断标准
- 解决方向
Model
- 典型表现
- provider 下的具体模型名。比如
claude-sonnet-4-5-thinking、gpt-5.3-codex。注册模型 = 告诉 OpenClaw "这个 provider 支持这些模型"。 - 判断标准
- 解决方向
Fallback
- 典型表现
- 主模型挂了用谁?fallback 链定义了降级顺序:主力 → 备选 → 兜底。不是可选的,是必须配置的。
- 判断标准
- 解决方向
Channel
- 典型表现
- 消息投递通道。Discord、钉钉、飞书等。Agent 回复通过 channel 发给用户。一个 Agent 可以绑多个 channel。
- 判断标准
- 解决方向
Cron
- 典型表现
- 定时任务。
delivery三要素:mode+channel+to,缺一不可。OpenClaw 不校验完整性,你不写全就会静默失败。 - 判断标准
- 解决方向
一句话总结
OpenClaw 是 LLM 的 Nginx。你只管发消息,它帮你路由到对的模型、对的 provider、对的人。