メインコンテンツへスキップ

Mistral

OpenClaw は、テキスト/画像モデルルーティング(mistral/...)と media understanding における Voxtral による音声文字起こしの両方で Mistral をサポートしています。 Mistral はメモリ埋め込みにも使用できます(memorySearch.provider = "mistral")。

CLI セットアップ

openclaw onboard --auth-choice mistral-api-key
# または非対話モード
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"

config スニペット(LLM provider)

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}

組み込み LLM カタログ

OpenClaw には現在、このバンドル版 Mistral カタログが含まれています:
Model refInputContextMax outputNotes
mistral/mistral-large-latesttext, image262,14416,384デフォルトモデル
mistral/mistral-medium-2508text, image262,1448,192Mistral Medium 3.1
mistral/mistral-small-latesttext, image128,00016,384Mistral Small 4; API reasoning_effort による調整可能な推論
mistral/pixtral-large-latesttext, image128,00032,768Pixtral
mistral/codestral-latesttext256,0004,096コーディング
mistral/devstral-medium-latesttext262,14432,768Devstral 2
mistral/magistral-smalltext128,00040,000推論対応

config スニペット(Voxtral による音声文字起こし)

{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}

調整可能な推論(mistral-small-latest

mistral/mistral-small-latest は Mistral Small 4 に対応しており、Chat Completions API で reasoning_effort を通じた調整可能な推論をサポートしています(none は出力内の追加思考を最小化し、high は最終回答の前に完全な思考トレースを表示します)。 OpenClaw はセッションの thinking レベルを Mistral の API に次のように対応付けます:
  • off / minimalnone
  • low / medium / high / xhigh / adaptivehigh
他のバンドル版 Mistral カタログモデルではこのパラメーターは使用されません。Mistral ネイティブの推論優先動作が必要な場合は、引き続き magistral-* モデルを使用してください。

注意

  • Mistral 認証には MISTRAL_API_KEY を使用します。
  • provider ベース URL のデフォルトは https://api.mistral.ai/v1 です。
  • オンボーディング時のデフォルトモデルは mistral/mistral-large-latest です。
  • Mistral の media-understanding におけるデフォルト音声モデルは voxtral-mini-latest です。
  • media 文字起こしパスは /v1/audio/transcriptions を使用します。
  • メモリ埋め込みパスは /v1/embeddings を使用します(デフォルトモデル: mistral-embed)。