Skip to main content

Mistral

OpenClaw 支持将 Mistral 用于文本/图像模型路由(mistral/...),以及在媒体理解中通过 Voxtral 进行音频转录。 Mistral 也可用于记忆嵌入(memorySearch.provider = "mistral")。

CLI 设置

openclaw onboard --auth-choice mistral-api-key
# or non-interactive
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"

配置片段(LLM 提供商)

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}

内置 LLM 目录

OpenClaw 当前附带以下内置 Mistral 目录:
Model refInputContextMax outputNotes
mistral/mistral-large-latesttext, image262,14416,384默认模型
mistral/mistral-medium-2508text, image262,1448,192Mistral Medium 3.1
mistral/mistral-small-latesttext, image128,00016,384Mistral Small 4;可通过 API reasoning_effort 调整推理强度
mistral/pixtral-large-latesttext, image128,00032,768Pixtral
mistral/codestral-latesttext256,0004,096编码
mistral/devstral-medium-latesttext262,14432,768Devstral 2
mistral/magistral-smalltext128,00040,000启用推理

配置片段(使用 Voxtral 的音频转录)

{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}

可调推理(mistral-small-latest

mistral/mistral-small-latest 对应 Mistral Small 4,并通过 reasoning_effort 支持在 Chat Completions API 上进行可调推理none 会尽量减少输出中的额外思考;high 会在最终答案前展示完整的思考轨迹)。 OpenClaw 会将会话 thinking 级别映射到 Mistral 的 API:
  • off / minimalnone
  • low / medium / high / xhigh / adaptivehigh
其他内置 Mistral 目录模型不会使用此参数;如果你想使用 Mistral 原生的以推理优先为核心的行为,请继续使用 magistral-* 模型。

说明

  • Mistral 认证使用 MISTRAL_API_KEY
  • 提供商基础 URL 默认为 https://api.mistral.ai/v1
  • 新手引导默认模型为 mistral/mistral-large-latest
  • Mistral 的媒体理解默认音频模型为 voxtral-mini-latest
  • 媒体转录路径使用 /v1/audio/transcriptions
  • 记忆嵌入路径使用 /v1/embeddings(默认模型:mistral-embed)。