Brain:LLM 引擎

Brain 是什么

Brain 是 OpenClaw 的推理核心,负责所有与 LLM 相关的交互。当 Gateway 接收到请求并完成路由后,最终由 Brain 调用大语言模型来生成回复、执行工具调用或做出决策。

Brain 不仅仅是一个 API 调用的封装——它管理提示词模板、维护对话上下文、协调工具调用,并将 Memory 中的历史信息注入到每次推理中。

核心能力

多模型支持

Brain 采用统一的模型接口设计,支持主流 LLM 提供商。你可以根据任务的复杂度和成本需求选择不同的模型:

  • 日常对话使用轻量模型降低成本
  • 复杂推理任务切换到高性能模型
  • 配置 fallback 链路保证服务可用性

提示词管理

每个 Agent 可以配置自己的系统提示词(System Prompt),定义 Agent 的人格、能力范围和行为边界。Brain 负责在每次调用中正确组装提示词,包括系统指令、历史上下文和当前输入。

工具调用编排

当 LLM 决定调用工具时,Brain 负责解析工具调用请求、转发给对应的 Skill 执行、收集执行结果,并将结果反馈给 LLM 继续推理。这个过程可能经历多轮交互,Brain 会自动管理整个调用链。

配置模型

openclaw.json 中配置 Brain 的模型参数:

{
  "brain": {
    "model": "anthropic/claude-sonnet-4-6",
    "endpoint": "https://api.example.com/v1",
    "temperature": 0.7,
    "maxTokens": 4096
  }
}

Fallback 策略

可以配置备用模型,当主模型调用失败时自动降级:

{
  "brain": {
    "model": "anthropic/claude-sonnet-4-6",
    "fallback": "glm-4"
  }
}

与 Memory 协作

Brain 在每次推理前会从 Memory 模块拉取相关的历史信息。这包括近期对话记录、持久化的用户偏好,以及其他 Agent 共享的上下文。这种协作让 Agent 的回复具有连贯性和个性化特征。

详细了解 Memory 系统,请参考 Memory 记忆系统

性能考量

LLM 调用是整个系统中延迟最高的环节。Brain 通过以下方式优化性能:

  • 请求级别的超时控制
  • 流式输出(Streaming)支持
  • 上下文窗口的智能截断

下一步

了解 Memory 如何为 Brain 提供持久化上下文,或查看 Skills 了解工具扩展机制。

最后更新: 2026-03-10

相关文章