Vai al contenuto principale

Mistral

OpenClaw supporta Mistral sia per l’instradamento di modelli testo/immagine (mistral/...) sia per la trascrizione audio tramite Voxtral nel media understanding. Mistral può anche essere usato per gli embedding di memoria (memorySearch.provider = "mistral").
  • Provider: mistral
  • Auth: MISTRAL_API_KEY
  • API: Mistral Chat Completions (https://api.mistral.ai/v1)

Per iniziare

1

Ottieni la tua chiave API

Crea una chiave API nella Mistral Console.
2

Esegui l’onboarding

openclaw onboard --auth-choice mistral-api-key
Oppure passa direttamente la chiave:
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"
3

Imposta un modello predefinito

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}
4

Verifica che il modello sia disponibile

openclaw models list --provider mistral

Catalogo LLM integrato

OpenClaw al momento include questo catalogo Mistral integrato:
Model refInputContextMax outputNotes
mistral/mistral-large-latesttext, image262,14416,384Modello predefinito
mistral/mistral-medium-2508text, image262,1448,192Mistral Medium 3.1
mistral/mistral-small-latesttext, image128,00016,384Mistral Small 4; reasoning regolabile tramite API reasoning_effort
mistral/pixtral-large-latesttext, image128,00032,768Pixtral
mistral/codestral-latesttext256,0004,096Coding
mistral/devstral-medium-latesttext262,14432,768Devstral 2
mistral/magistral-smalltext128,00040,000Reasoning abilitato

Trascrizione audio (Voxtral)

Usa Voxtral per la trascrizione audio tramite la pipeline di media understanding.
{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}
Il percorso di trascrizione dei media usa /v1/audio/transcriptions. Il modello audio predefinito per Mistral è voxtral-mini-latest.

Configurazione avanzata

mistral/mistral-small-latest corrisponde a Mistral Small 4 e supporta il reasoning regolabile sull’API Chat Completions tramite reasoning_effort (none riduce al minimo il thinking aggiuntivo nell’output; high mostra le tracce complete di thinking prima della risposta finale).OpenClaw mappa il livello di thinking della sessione all’API di Mistral:
OpenClaw thinking levelMistral reasoning_effort
off / minimalnone
low / medium / high / xhigh / adaptivehigh
Gli altri modelli del catalogo Mistral integrato non usano questo parametro. Continua a usare i modelli magistral-* quando vuoi il comportamento nativo di Mistral orientato prima di tutto al reasoning.
Mistral può fornire embedding di memoria tramite /v1/embeddings (modello predefinito: mistral-embed).
{
  memorySearch: { provider: "mistral" },
}
  • L’autenticazione Mistral usa MISTRAL_API_KEY.
  • L’URL di base del provider è predefinito su https://api.mistral.ai/v1.
  • Il modello predefinito dell’onboarding è mistral/mistral-large-latest.
  • Z.AI usa l’autenticazione Bearer con la tua chiave API.

Correlati

Selezione del modello

Scelta dei provider, dei riferimenti di modello e del comportamento di failover.

Media understanding

Configurazione della trascrizione audio e selezione del provider.