Pular para o conteúdo principal

Mistral

O OpenClaw oferece suporte ao Mistral tanto para roteamento de modelos de texto/imagem (mistral/...) quanto para transcrição de áudio via Voxtral em entendimento de mídia. O Mistral também pode ser usado para embeddings de memória (memorySearch.provider = "mistral").

Configuração via CLI

openclaw onboard --auth-choice mistral-api-key
# or non-interactive
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"

Trecho de configuração (provedor LLM)

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}

Catálogo de LLM incluído

Atualmente, o OpenClaw inclui este catálogo Mistral:
Model refInputContextMax outputNotes
mistral/mistral-large-latesttext, image262,14416,384Modelo padrão
mistral/mistral-medium-2508text, image262,1448,192Mistral Medium 3.1
mistral/mistral-small-latesttext, image128,00016,384Mistral Small 4; raciocínio ajustável via API reasoning_effort
mistral/pixtral-large-latesttext, image128,00032,768Pixtral
mistral/codestral-latesttext256,0004,096Programação
mistral/devstral-medium-latesttext262,14432,768Devstral 2
mistral/magistral-smalltext128,00040,000Com suporte a raciocínio

Trecho de configuração (transcrição de áudio com Voxtral)

{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}

Raciocínio ajustável (mistral-small-latest)

mistral/mistral-small-latest corresponde ao Mistral Small 4 e oferece suporte a raciocínio ajustável na API Chat Completions via reasoning_effort (none minimiza pensamento extra na saída; high exibe rastros completos de pensamento antes da resposta final). O OpenClaw mapeia o nível de thinking da sessão para a API do Mistral:
  • off / minimalnone
  • low / medium / high / xhigh / adaptivehigh
Os outros modelos do catálogo Mistral incluído não usam esse parâmetro; continue usando modelos magistral-* quando quiser o comportamento nativo do Mistral focado primeiro em raciocínio.

Observações

  • A autenticação do Mistral usa MISTRAL_API_KEY.
  • A URL base do provedor usa por padrão https://api.mistral.ai/v1.
  • O modelo padrão no onboarding é mistral/mistral-large-latest.
  • O modelo de áudio padrão de entendimento de mídia para Mistral é voxtral-mini-latest.
  • O caminho de transcrição de mídia usa /v1/audio/transcriptions.
  • O caminho de embeddings de memória usa /v1/embeddings (modelo padrão: mistral-embed).