Mistral
OpenClaw は、テキスト/画像モデルルーティング(mistral/...)と
media understanding における Voxtral による音声文字起こしの両方で Mistral をサポートしています。
Mistral はメモリ埋め込みにも使用できます(memorySearch.provider = "mistral")。
CLI セットアップ
config スニペット(LLM provider)
組み込み LLM カタログ
OpenClaw には現在、このバンドル版 Mistral カタログが含まれています:| Model ref | Input | Context | Max output | Notes |
|---|---|---|---|---|
mistral/mistral-large-latest | text, image | 262,144 | 16,384 | デフォルトモデル |
mistral/mistral-medium-2508 | text, image | 262,144 | 8,192 | Mistral Medium 3.1 |
mistral/mistral-small-latest | text, image | 128,000 | 16,384 | Mistral Small 4; API reasoning_effort による調整可能な推論 |
mistral/pixtral-large-latest | text, image | 128,000 | 32,768 | Pixtral |
mistral/codestral-latest | text | 256,000 | 4,096 | コーディング |
mistral/devstral-medium-latest | text | 262,144 | 32,768 | Devstral 2 |
mistral/magistral-small | text | 128,000 | 40,000 | 推論対応 |
config スニペット(Voxtral による音声文字起こし)
調整可能な推論(mistral-small-latest)
mistral/mistral-small-latest は Mistral Small 4 に対応しており、Chat Completions API で reasoning_effort を通じた調整可能な推論をサポートしています(none は出力内の追加思考を最小化し、high は最終回答の前に完全な思考トレースを表示します)。
OpenClaw はセッションの thinking レベルを Mistral の API に次のように対応付けます:
- off / minimal →
none - low / medium / high / xhigh / adaptive →
high
magistral-* モデルを使用してください。
注意
- Mistral 認証には
MISTRAL_API_KEYを使用します。 - provider ベース URL のデフォルトは
https://api.mistral.ai/v1です。 - オンボーディング時のデフォルトモデルは
mistral/mistral-large-latestです。 - Mistral の media-understanding におけるデフォルト音声モデルは
voxtral-mini-latestです。 - media 文字起こしパスは
/v1/audio/transcriptionsを使用します。 - メモリ埋め込みパスは
/v1/embeddingsを使用します(デフォルトモデル:mistral-embed)。