跳转至

LLM & Models 大模型与配置

OpenClaw 平台的核心能力之一是灵活的模型管理与多 Provider 支持。本文档记录了从 Provider 配置、模型选型、Azure OpenAI 适配到多 Agent 模型协作的完整演进历程。

产品定位

OpenClaw 的模型系统不仅是单一 LLM 接口,而是一个多模型编排平台

  • 多 Provider 支持:GitHub Copilot、Azure OpenAI、MiniMax、本地模型等
  • Per-Agent 模型配置:不同 Agent 可使用不同模型,匹配各自角色定位
  • 动态切换:会话级别模型切换,支持 fallback 策略
  • 成本分层:小模型做粗筛,大模型做精处理

核心能力

1. Provider 体系

OpenClaw 支持多种模型 Provider,通过统一接口管理:

Provider 典型模型 使用场景
github-copilot claude-opus-4.6, gpt-5.4, gemini-3.1-pro 主力开发与推理
my-azure gpt-5.4, gpt-5.2 企业级部署
minimax-portal MiniMax-M2.5, MiniMax-M2.1 中文场景优化
本地模型 ollama 系列 私有化部署

2. 模型选型原则

基于实践总结的选型经验:

  • claude-opus-4.6:总协调/PM 角色,长上下文与复杂推理
  • gpt-5.4:架构设计、深度审查、代码生成
  • claude-opus-4.5:数据分析、文档理解
  • gemini-3.1-pro-preview:前端/多模态、UI 交互
  • gpt-5.2 / gpt-4o:文档整理、低成本任务

3. 多 Agent 模型配置

典型的多 Agent 模型分配:

{
  "agents": {
    "defaults": {
      "model": { "primary": "github-copilot/claude-opus-4.6" }
    },
    "list": [
      { "id": "prism-arch", "model": "github-copilot/gpt-5.4" },
      { "id": "prism-data", "model": "github-copilot/claude-opus-4.5" },
      { "id": "prism-ui", "model": "github-copilot/gemini-3.1-pro-preview" },
      { "id": "prism-docs", "model": "github-copilot/gpt-5.2" }
    ]
  }
}

4. Fallback 与容错

模型调用支持多级 fallback:

{
  "model": {
    "primary": "github-copilot/claude-opus-4.6",
    "fallbacks": ["github-copilot/gpt-5.4", "my-azure/gpt-5.2"]
  }
}

项目时间线

时间段 阶段 关键成果
03-10 Azure 接入 [[03-10-provider-config]] Codex 验证可用,Azure OpenAI SDK 适配方向确认
03-11 MiniMax 测试 [[03-11-minimax-testing]] MiniMax-M2.5 测试,VL-01 多模态模型发现
03-12 多模型辩论 ClawCraft 项目中 GPT-5.4 vs Gemini 多轮架构辩论
03-13 Codex Azure 适配 [[03-13-azure-sdk-adaptation]] Codex 完成 Azure provider 配置
03-15 多 Agent 配置 Hackathon 5 Agent 独立模型与 workspace 配置
03-20 流式输出 Clawline 流式 streaming 链路打通
03-21 模型协作 自动剪辑项目中 GPT-5.4 + 4o 分层协作方案
03-27 本地 TTS Qwen3-TTS 本地服务化,语音生成能力落地

关键技术决策

Azure OpenAI vs 标准 OpenAI

决策:采用 Azure OpenAI 作为主要企业级 Provider
原因: - 企业级 SLA 与合规性 - 区域部署(如 Sweden Central) - 与 Azure DevOps 生态集成

适配要点: - Python SDK 从 OpenAI 切换为 AzureOpenAI - 环境变量:AZURE_OPENAI_API_KEY, AZURE_OPENAI_ENDPOINT, AZURE_OPENAI_API_VERSION - model 参数实际传递的是 deployment name

多模型协作策略

决策:按任务复杂度分层使用模型
实践: - 5.4 负责高价值创意决策:选片、叙事、架构设计 - 4o/4.1 负责低风险结构化任务:整理候选、格式化输出、执行型工作 - Watchdog 用便宜模型巡检,复杂问题升级给主模型

模型可用性验证

经验:模型名可见 ≠ 实际可用

常见问题: - Provider 列表显示模型,但实际调用返回 model_not_found - 会话切换后模型状态不一致 - Token/OAuth 配置影响模型访问

解决方案: - 启动前校验模型注册状态 - 配置完整的 fallback 链 - 端到端验证而非仅配置检查

架构演进

第一阶段:单模型单 Provider

最初使用单一 Provider(如 GitHub Copilot),所有 Agent 共用同一模型。

第二阶段:Per-Agent 模型配置

引入多 Agent 支持后,每个 Agent 可配置独立模型,实现角色与能力匹配。

第三阶段:多模型分层协作

形成"小模型粗筛 + 大模型精处理"的分层架构,优化成本与效果平衡。

第四阶段:本地模型集成

通过 Ollama、Qwen3-TTS 等本地模型,补充语音、视觉等特殊能力。

关键经验

Provider 配置

  1. 环境变量分层~/.bashrc 不够,需补到 systemd/profile 层
  2. Provider 路由:显式配置 provider,不依赖自动推断
  3. 版本管理:Azure 必须显式指定 api_version

模型使用

  1. 先验证再使用:切换模型后做端到端测试
  2. 提示词质量:多 Agent 失败往往是提示词不够约束
  3. 上下文隔离:不同 Agent 使用独立 workspace,避免记忆污染

成本控制

  1. 分层处理:routine 任务用便宜模型
  2. 批量优化:减少 API 调用频次
  3. 缓存利用:相似查询复用结果

子页面

  • [[03-10-provider-config]] - Provider 配置与环境变量管理
  • [[03-13-azure-sdk-adaptation]] - Azure OpenAI SDK 适配详解
  • [[03-11-model-testing]] - 模型测试与选型实践
  • [[03-21-multi-model-collaboration]] - 多模型协作架构

下一步发展

  1. 模型监控:建立模型调用成本与性能监控
  2. 自动选型:基于任务特征自动选择最优模型
  3. 本地模型扩展:更多特殊能力模型(ASR、Vision)本地化
  4. Provider 健康检查:自动检测 Provider 可用性并切换

OpenClaw 的模型系统从单一 LLM 接口演进为完整的多模型编排平台。核心经验是:模型能力只是基础,真正的价值在于按角色、按任务、按成本的精细化配置与协作