OpenClaw 大模型配置文件优先级及路径详解

OpenClaw 大模型配置文件优先级及路径详解

概述

OpenClaw 使用两层配置结构来管理大模型:全局默认配置和 Agent 特定配置。理解这两层配置的优先级和关系对于正确配置和故障排查至关重要。

配置文件结构

1. 全局配置文件

路径:`/root/.openclaw/openclaw.json`

作用:定义所有 Agent 的默认模型行为,包括主模型、备用模型链和模型详情映射。

2. Agent 配置文件

路径:`/root/.openclaw/agents/main/agent/models.json`

作用:提供详细的模型提供者配置,包括 API 端点、密钥、模型规格等。

配置优先级详解

优先级顺序

  1. 全局默认配置(`openclaw.json`)
    • 定义主模型:`agents.defaults.model.primary`
    • 定义备用模型链:`agents.defaults.model.fallbacks`
    • 定义模型映射:`agents.defaults.models`
  2. Agent 特定配置(`models.json`)
    • 提供模型提供者详细信息
    • 包含 API 端点、密钥、模型规格
    • 可能覆盖全局配置中的部分设置

配置合并机制

OpenClaw 使用 merge 模式 来合并配置:

"models": {
  "mode": "merge",
  "providers": { ... }
}

这意味着全局配置和 Agent 配置会合并,Agent 配置可以覆盖全局配置中的特定部分。

具体配置项说明

全局配置关键项

1. 主模型配置

"model": {
  "primary": "custom-open-bigmodel-cn/glm-4.7-flash",
  "fallbacks": [
    "custom-integrate-api-nvidia-com/deepseek-ai/deepseek-v3.2",
    "custom-api-inference-modelscope-cn/MiniMax/MiniMax-M2.5"
  ]
}
  • primary:首选模型,当此模型可用时使用
  • fallbacks:备用模型列表,按顺序尝试

2. 模型映射

"models": {
  "custom-open-bigmodel-cn/glm-4.7-flash": {},
  "custom-integrate-api-nvidia-com/deepseek-ai/deepseek-v3.2": {},
  "custom-api-inference-modelscope-cn/MiniMax/MiniMax-M2.5": {}
}

这个映射用于存储模型配置的引用,实际配置在 `models.json` 中。

Agent 配置关键项

1. 模型提供者配置

"providers": {
  "custom-open-bigmodel-cn": {
    "baseUrl": "https://open.bigmodel.cn/api/paas/v4",
    "apiKey": "your-api-key-here",
    "api": "openai-completions",
    "models": [
      {
        "id": "glm-4.7-flash",
        "name": "glm-4.7-flash (Custom Provider)",
        "contextWindow": 65535,
        "maxTokens": 4096,
        "reasoning": false
      }
    ]
  },
  "custom-integrate-api-nvidia-com": {
    "baseUrl": "https://integrate.api.nvidia.com/v1",
    "apiKey": "nvapi-your-api-key-here",
    "api": "openai-completions",
    "models": [
      {
        "id": "deepseek-ai/deepseek-v3.2",
        "name": "deepseek-ai/deepseek-v3.2 (Custom Provider)",
        "contextWindow": 65535,
        "maxTokens": 4096,
        "reasoning": false
      }
    ]
  },
  "custom-api-inference-modelscope-cn": {
    "baseUrl": "https://api-inference.modelscope.cn/v1",
    "apiKey": "ms-your-api-key-here",
    "api": "openai-completions",
    "models": [
      {
        "id": "MiniMax/MiniMax-M2.5",
        "name": "MiniMax/MiniMax-M2.5 (Custom Provider)",
        "contextWindow": 65535,
        "maxTokens": 4096,
        "reasoning": false
      }
    ]
  }
}

2. Codex 模型

Agent 配置中包含 Codex 模型(GPT-5.4 系列),这些是专门用于代码生成的模型:

  • gpt-5.4 – 高性能代码模型
  • gpt-5.4-mini – 轻量级代码模型
  • gpt-5.2 – 标准代码模型

实际使用流程

  1. 初始化:OpenClaw 读取全局配置 `openclaw.json`
  2. 确定模型:从 `agents.defaults.model.primary` 获取首选模型
  3. 查找配置:在 `models.json` 中查找该模型的提供者配置
  4. 调用 API:使用找到的配置调用对应的 API
  5. 失败处理:如果调用失败,按顺序尝试 `fallbacks` 列表中的模型

故障排查指南

常见问题 1:模型无法调用

症状:提示模型不可用或 API 调用失败

解决方案

  1. 检查全局配置中的 `primary` 模型是否正确
  2. 检查 `models.json` 中该模型的 API 配置是否正确
  3. 验证 API 密钥是否有效
  4. 检查网络连接是否正常
  5. 尝试切换到备用模型测试

常见问题 2:模型切换失败

症状:主模型失败后,备用模型没有被调用

解决方案

  1. 检查 `fallbacks` 列表是否配置正确
  2. 确认备用模型在 `models.json` 中存在
  3. 查看 Gateway 日志了解详细错误信息

常见问题 3:配置不生效

症状:修改配置后没有生效

解决方案

  1. 检查配置文件语法是否正确
  2. 重启 Gateway 服务:`openclaw gateway restart`
  3. 验证配置是否被正确加载:`openclaw config validate`
  4. 检查是否有多个配置文件冲突

最佳实践

1. 配置文件管理

  • 使用版本控制管理配置文件
  • 定期备份配置文件
  • 使用配置验证工具检查语法

2. 模型选择策略

  • 根据任务类型选择合适的模型(代码用 Codex,通用对话用 GLM)
  • 配置多个备用模型提高可用性
  • 监控模型调用成本和性能

3. 安全建议

  • 不要在配置文件中硬编码敏感信息
  • 使用环境变量存储 API 密钥
  • 定期轮换 API 密钥

总结

OpenClaw 的配置系统采用了分层设计,全局配置定义默认行为,Agent 配置提供详细信息。理解这种设计有助于:

  • 正确配置模型优先级
  • 快速排查配置问题
  • 优化模型调用策略

通过合理配置主模型和备用模型链,可以确保 AI 助手在各种情况下都能稳定工作。


相关文章

作者:火星基地

发布日期:2026年4月19日

标签:OpenClaw, AI, 配置管理, DevOps

分类:技术教程

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容