Langsung ke konten utama

Mistral

OpenClaw mendukung Mistral untuk routing model teks/gambar (mistral/...) dan transkripsi audio melalui Voxtral dalam pemahaman media. Mistral juga dapat digunakan untuk embedding memori (memorySearch.provider = "mistral").
  • Provider: mistral
  • Autentikasi: MISTRAL_API_KEY
  • API: Mistral Chat Completions (https://api.mistral.ai/v1)

Memulai

1

Dapatkan kunci API Anda

Buat kunci API di Mistral Console.
2

Jalankan onboarding

openclaw onboard --auth-choice mistral-api-key
Atau berikan kuncinya secara langsung:
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"
3

Tetapkan model default

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}
4

Verifikasi bahwa model tersedia

openclaw models list --provider mistral

Katalog LLM bawaan

OpenClaw saat ini menyediakan katalog Mistral bawaan berikut:
Ref modelInputKonteksOutput maksCatatan
mistral/mistral-large-latestteks, gambar262,14416,384Model default
mistral/mistral-medium-2508teks, gambar262,1448,192Mistral Medium 3.1
mistral/mistral-small-latestteks, gambar128,00016,384Mistral Small 4; reasoning yang dapat disesuaikan melalui API reasoning_effort
mistral/pixtral-large-latestteks, gambar128,00032,768Pixtral
mistral/codestral-latestteks256,0004,096Coding
mistral/devstral-medium-latestteks262,14432,768Devstral 2
mistral/magistral-smallteks128,00040,000reasoning diaktifkan

Transkripsi audio (Voxtral)

Gunakan Voxtral untuk transkripsi audio melalui pipeline pemahaman media.
{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}
Jalur transkripsi media menggunakan /v1/audio/transcriptions. Model audio default untuk Mistral adalah voxtral-mini-latest.

Konfigurasi lanjutan

mistral/mistral-small-latest dipetakan ke Mistral Small 4 dan mendukung reasoning yang dapat disesuaikan pada API Chat Completions melalui reasoning_effort (none meminimalkan thinking tambahan dalam output; high menampilkan jejak thinking penuh sebelum jawaban akhir).OpenClaw memetakan level thinking sesi ke API Mistral:
Level thinking OpenClawreasoning_effort Mistral
off / minimalnone
low / medium / high / xhigh / adaptivehigh
Model katalog Mistral bawaan lainnya tidak menggunakan parameter ini. Tetap gunakan model magistral-* saat Anda menginginkan perilaku native Mistral yang mengutamakan reasoning.
Mistral dapat melayani embedding memori melalui /v1/embeddings (model default: mistral-embed).
{
  memorySearch: { provider: "mistral" },
}
  • Autentikasi Mistral menggunakan MISTRAL_API_KEY.
  • Base URL provider secara default adalah https://api.mistral.ai/v1.
  • Model default onboarding adalah mistral/mistral-large-latest.
  • Z.AI menggunakan autentikasi Bearer dengan kunci API Anda.

Terkait

Pemilihan model

Memilih provider, ref model, dan perilaku failover.

Pemahaman media

Penyiapan transkripsi audio dan pemilihan provider.