Przejdź do głównej treści

Mistral

OpenClaw obsługuje Mistral zarówno do routingu modeli tekstowych/obrazowych (mistral/...), jak i do transkrypcji audio przez Voxtral w media understanding. Mistral może być również używany do embeddingów pamięci (memorySearch.provider = "mistral").

Konfiguracja CLI

openclaw onboard --auth-choice mistral-api-key
# or non-interactive
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"

Fragment konfiguracji (dostawca LLM)

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}

Wbudowany katalog LLM

OpenClaw obecnie udostępnia ten dołączony katalog Mistral:
Model refWejścieKontekstMaks. wyjścieUwagi
mistral/mistral-large-latesttekst, obraz262,14416,384Model domyślny
mistral/mistral-medium-2508tekst, obraz262,1448,192Mistral Medium 3.1
mistral/mistral-small-latesttekst, obraz128,00016,384Mistral Small 4; regulowane reasoning przez API reasoning_effort
mistral/pixtral-large-latesttekst, obraz128,00032,768Pixtral
mistral/codestral-latesttekst256,0004,096Kodowanie
mistral/devstral-medium-latesttekst262,14432,768Devstral 2
mistral/magistral-smalltekst128,00040,000Z włączonym reasoning

Fragment konfiguracji (transkrypcja audio z Voxtral)

{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}

Regulowane reasoning (mistral-small-latest)

mistral/mistral-small-latest odpowiada Mistral Small 4 i obsługuje regulowane reasoning w API Chat Completions przez reasoning_effort (none minimalizuje dodatkowe myślenie w wyniku; high ujawnia pełne ślady myślenia przed końcową odpowiedzią). OpenClaw mapuje poziom thinking sesji na API Mistral:
  • off / minimalnone
  • low / medium / high / xhigh / adaptivehigh
Inne modele z dołączonego katalogu Mistral nie używają tego parametru; nadal używaj modeli magistral-*, gdy chcesz uzyskać natywne dla Mistral zachowanie z priorytetem reasoning.

Uwagi

  • Uwierzytelnianie Mistral używa MISTRAL_API_KEY.
  • Bazowy URL dostawcy domyślnie to https://api.mistral.ai/v1.
  • Domyślny model onboardingu to mistral/mistral-large-latest.
  • Domyślny model audio dla media-understanding w Mistral to voxtral-mini-latest.
  • Ścieżka transkrypcji mediów używa /v1/audio/transcriptions.
  • Ścieżka embeddingów pamięci używa /v1/embeddings (model domyślny: mistral-embed).