Mistral
OpenClaw obsługuje Mistral zarówno do routingu modeli tekstowych/obrazowych (mistral/...), jak i
do transkrypcji audio przez Voxtral w media understanding.
Mistral może być również używany do embeddingów pamięci (memorySearch.provider = "mistral").
Konfiguracja CLI
Fragment konfiguracji (dostawca LLM)
Wbudowany katalog LLM
OpenClaw obecnie udostępnia ten dołączony katalog Mistral:| Model ref | Wejście | Kontekst | Maks. wyjście | Uwagi |
|---|---|---|---|---|
mistral/mistral-large-latest | tekst, obraz | 262,144 | 16,384 | Model domyślny |
mistral/mistral-medium-2508 | tekst, obraz | 262,144 | 8,192 | Mistral Medium 3.1 |
mistral/mistral-small-latest | tekst, obraz | 128,000 | 16,384 | Mistral Small 4; regulowane reasoning przez API reasoning_effort |
mistral/pixtral-large-latest | tekst, obraz | 128,000 | 32,768 | Pixtral |
mistral/codestral-latest | tekst | 256,000 | 4,096 | Kodowanie |
mistral/devstral-medium-latest | tekst | 262,144 | 32,768 | Devstral 2 |
mistral/magistral-small | tekst | 128,000 | 40,000 | Z włączonym reasoning |
Fragment konfiguracji (transkrypcja audio z Voxtral)
Regulowane reasoning (mistral-small-latest)
mistral/mistral-small-latest odpowiada Mistral Small 4 i obsługuje regulowane reasoning w API Chat Completions przez reasoning_effort (none minimalizuje dodatkowe myślenie w wyniku; high ujawnia pełne ślady myślenia przed końcową odpowiedzią).
OpenClaw mapuje poziom thinking sesji na API Mistral:
- off / minimal →
none - low / medium / high / xhigh / adaptive →
high
magistral-*, gdy chcesz uzyskać natywne dla Mistral zachowanie z priorytetem reasoning.
Uwagi
- Uwierzytelnianie Mistral używa
MISTRAL_API_KEY. - Bazowy URL dostawcy domyślnie to
https://api.mistral.ai/v1. - Domyślny model onboardingu to
mistral/mistral-large-latest. - Domyślny model audio dla media-understanding w Mistral to
voxtral-mini-latest. - Ścieżka transkrypcji mediów używa
/v1/audio/transcriptions. - Ścieżka embeddingów pamięci używa
/v1/embeddings(model domyślny:mistral-embed).