Zum Hauptinhalt springen

Mistral

OpenClaw unterstützt Mistral sowohl für Text-/Bild-Modellrouting (mistral/...) als auch für Audio-Transkription über Voxtral im Medienverständnis. Mistral kann auch für Memory-Embeddings verwendet werden (memorySearch.provider = "mistral").
  • Provider: mistral
  • Auth: MISTRAL_API_KEY
  • API: Mistral Chat Completions (https://api.mistral.ai/v1)

Erste Schritte

1

API-Schlüssel abrufen

Erstellen Sie einen API-Schlüssel in der Mistral Console.
2

Onboarding ausführen

openclaw onboard --auth-choice mistral-api-key
Oder übergeben Sie den Schlüssel direkt:
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"
3

Ein Standardmodell festlegen

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}
4

Prüfen, ob das Modell verfügbar ist

openclaw models list --provider mistral

Integrierter LLM-Katalog

OpenClaw enthält derzeit diesen gebündelten Mistral-Katalog:
Modell-RefEingabeKontextMaximale AusgabeHinweise
mistral/mistral-large-latestText, Bild262,14416,384Standardmodell
mistral/mistral-medium-2508Text, Bild262,1448,192Mistral Medium 3.1
mistral/mistral-small-latestText, Bild128,00016,384Mistral Small 4; anpassbares Reasoning über API reasoning_effort
mistral/pixtral-large-latestText, Bild128,00032,768Pixtral
mistral/codestral-latestText256,0004,096Coding
mistral/devstral-medium-latestText262,14432,768Devstral 2
mistral/magistral-smallText128,00040,000Reasoning aktiviert

Audio-Transkription (Voxtral)

Verwenden Sie Voxtral für Audio-Transkription über die Medienverständnis-Pipeline.
{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}
Der Pfad für Medien-Transkription verwendet /v1/audio/transcriptions. Das Standard-Audiomodell für Mistral ist voxtral-mini-latest.

Erweiterte Konfiguration

mistral/mistral-small-latest wird Mistral Small 4 zugeordnet und unterstützt anpassbares Reasoning in der Chat-Completions-API über reasoning_effort (none minimiert zusätzliches Denken in der Ausgabe; high zeigt vollständige Thinking-Traces vor der endgültigen Antwort an).OpenClaw ordnet die Session-Stufe für thinking der Mistral-API zu:
OpenClaw-Thinking-StufeMistral reasoning_effort
off / minimalnone
low / medium / high / xhigh / adaptivehigh
Andere Modelle im gebündelten Mistral-Katalog verwenden diesen Parameter nicht. Verwenden Sie weiterhin magistral-*-Modelle, wenn Sie Mistrals natives, reasoning-orientiertes Verhalten wünschen.
Mistral kann Memory-Embeddings über /v1/embeddings bereitstellen (Standardmodell: mistral-embed).
{
  memorySearch: { provider: "mistral" },
}
  • Mistral-Auth verwendet MISTRAL_API_KEY.
  • Die Base URL des Providers ist standardmäßig https://api.mistral.ai/v1.
  • Das Standardmodell beim Onboarding ist mistral/mistral-large-latest.
  • Z.AI verwendet Bearer-Auth mit Ihrem API-Schlüssel.

Verwandte Themen

Modellauswahl

Provider, Modell-Refs und Failover-Verhalten auswählen.

Medienverständnis

Einrichtung der Audio-Transkription und Providerauswahl.