Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenClaw มี Plugin Mistral ที่มาพร้อมชุดติดตั้ง ซึ่งลงทะเบียนสัญญาไว้สี่รายการ ได้แก่ chat completions, การทำความเข้าใจสื่อ (การถอดเสียงแบบแบตช์ของ Voxtral), STT แบบเรียลไทม์สำหรับ Voice Call (Voxtral Realtime) และ memory embeddings (mistral-embed)
คุณสมบัติค่า
Provider idmistral
Pluginมาพร้อมชุดติดตั้ง, enabledByDefault: true
Auth env varMISTRAL_API_KEY
แฟล็ก Onboarding--auth-choice mistral-api-key
แฟล็ก CLI โดยตรง--mistral-api-key <key>
APIเข้ากันได้กับ OpenAI (openai-completions)
Base URLhttps://api.mistral.ai/v1
โมเดลเริ่มต้นmistral/mistral-large-latest
โมเดล Embeddingmistral-embed
Voxtral แบบแบตช์voxtral-mini-latest (การถอดเสียงเสียง)
Voxtral แบบเรียลไทม์voxtral-mini-transcribe-realtime-2602

เริ่มต้นใช้งาน

1

รับ API key ของคุณ

สร้าง API key ใน Mistral Console
2

เรียกใช้ onboarding

openclaw onboard --auth-choice mistral-api-key
หรือส่งคีย์โดยตรง:
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"
3

ตั้งค่าโมเดลเริ่มต้น

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}
4

ตรวจสอบว่าโมเดลพร้อมใช้งาน

openclaw models list --provider mistral

แค็ตตาล็อก LLM ในตัว

Mistral Medium 3.5 คือโมเดล Medium แบบผสานในปัจจุบันในแค็ตตาล็อกที่มาพร้อมชุดติดตั้ง: น้ำหนักแบบ dense 128B, อินพุตข้อความและรูปภาพ, คอนเท็กซ์ 256K, การเรียกใช้ฟังก์ชัน, เอาต์พุตแบบมีโครงสร้าง, การเขียนโค้ด, และการให้เหตุผลที่ปรับได้ผ่าน Chat Completions API ใช้ mistral/mistral-medium-3-5 เมื่อคุณต้องการโมเดล agentic/เขียนโค้ดแบบรวมรุ่นใหม่ของ Mistral แทนโมเดลเริ่มต้น mistral/mistral-large-latest ปัจจุบัน OpenClaw จัดส่งแค็ตตาล็อก Mistral ที่มาพร้อมชุดติดตั้งนี้:
Model refอินพุตคอนเท็กซ์เอาต์พุตสูงสุดหมายเหตุ
mistral/mistral-large-latestข้อความ, รูปภาพ262,14416,384โมเดลเริ่มต้น
mistral/mistral-medium-2508ข้อความ, รูปภาพ262,1448,192Mistral Medium 3.1
mistral/mistral-medium-3-5ข้อความ, รูปภาพ262,1448,192Mistral Medium 3.5; การให้เหตุผลที่ปรับได้
mistral/mistral-small-latestข้อความ, รูปภาพ128,00016,384Mistral Small 4; การให้เหตุผลที่ปรับได้ผ่าน API reasoning_effort
mistral/pixtral-large-latestข้อความ, รูปภาพ128,00032,768Pixtral
mistral/codestral-latestข้อความ256,0004,096การเขียนโค้ด
mistral/devstral-medium-latestข้อความ262,14432,768Devstral 2
mistral/magistral-smallข้อความ128,00040,000เปิดใช้การให้เหตุผล
หลัง onboarding ให้ทดสอบ Medium 3.5 แบบ smoke test โดยไม่ต้องเริ่ม Gateway:
openclaw infer model run --local \
  --model mistral/mistral-medium-3-5 \
  --prompt "Reply with exactly: mistral-ok" \
  --json
หากต้องการดูแถวของแค็ตตาล็อกที่มาพร้อมชุดติดตั้งก่อนเปลี่ยน config:
openclaw models list --all --provider mistral --plain

การถอดเสียงเสียง (Voxtral)

ใช้ Voxtral สำหรับการถอดเสียงแบบแบตช์ผ่านไปป์ไลน์การทำความเข้าใจสื่อ
{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}
พาธการถอดเสียงสื่อใช้ /v1/audio/transcriptions โมเดลเสียงเริ่มต้นสำหรับ Mistral คือ voxtral-mini-latest

STT แบบสตรีมมิงของ Voice Call

Plugin mistral ที่มาพร้อมชุดติดตั้งลงทะเบียน Voxtral Realtime เป็นผู้ให้บริการ STT แบบสตรีมมิงสำหรับ Voice Call
การตั้งค่าพาธ Configค่าเริ่มต้น
API keyplugins.entries.voice-call.config.streaming.providers.mistral.apiKeyถอยกลับไปใช้ MISTRAL_API_KEY
โมเดล...mistral.modelvoxtral-mini-transcribe-realtime-2602
การเข้ารหัส...mistral.encodingpcm_mulaw
อัตราสุ่มตัวอย่าง...mistral.sampleRate8000
ดีเลย์เป้าหมาย...mistral.targetStreamingDelayMs800
{
  plugins: {
    entries: {
      "voice-call": {
        config: {
          streaming: {
            enabled: true,
            provider: "mistral",
            providers: {
              mistral: {
                apiKey: "${MISTRAL_API_KEY}",
                targetStreamingDelayMs: 800,
              },
            },
          },
        },
      },
    },
  },
}
OpenClaw ตั้งค่าเริ่มต้นของ STT แบบเรียลไทม์ของ Mistral เป็น pcm_mulaw ที่ 8 kHz เพื่อให้ Voice Call สามารถส่งต่อเฟรมสื่อของ Twilio ได้โดยตรง ใช้ encoding: "pcm_s16le" และ sampleRate ที่ตรงกันเฉพาะเมื่อสตรีมต้นทางของคุณเป็น PCM ดิบอยู่แล้วเท่านั้น

การกำหนดค่าขั้นสูง

mistral/mistral-small-latest (Mistral Small 4) และ mistral/mistral-medium-3-5 รองรับ การให้เหตุผลที่ปรับได้ บน Chat Completions API ผ่าน reasoning_effort (none ลดการคิดเพิ่มเติมในเอาต์พุตให้น้อยที่สุด; high แสดงร่องรอยการคิดแบบเต็มก่อนคำตอบสุดท้าย) Mistral แนะนำ reasoning_effort="high" สำหรับกรณีการใช้งาน agentic และโค้ดของ Medium 3.5OpenClaw แมประดับ thinking ของเซสชันไปยัง API ของ Mistral:
ระดับ thinking ของ OpenClawreasoning_effort ของ Mistral
off / minimalnone
low / medium / high / xhigh / adaptive / maxhigh
อย่าใช้โหมดการให้เหตุผลของ Medium 3.5 ร่วมกับ temperature: 0 HTTP API ของ Mistral จะปฏิเสธ reasoning_effort="high" พร้อม temperature: 0 ด้วยการตอบกลับ 400 ปล่อย temperature ให้ไม่ได้ตั้งค่าเพื่อให้ Mistral ใช้ค่าเริ่มต้น หรือทำตาม การตั้งค่าที่แนะนำสำหรับ Medium 3.5 และใช้ temperature: 0.7 สำหรับการให้เหตุผลสูง สำหรับคำตอบโดยตรงที่กำหนดแน่นอน ให้ปิด thinking หรือใช้ minimal เพื่อให้ OpenClaw ส่ง reasoning_effort: "none" ก่อนที่คุณจะลด temperature
ตัวอย่าง config ตามขอบเขตโมเดลสำหรับการให้เหตุผลของ Medium 3.5:
{
  agents: {
    defaults: {
      model: { primary: "mistral/mistral-medium-3-5" },
      models: {
        "mistral/mistral-medium-3-5": {
          params: { thinking: "high" },
        },
      },
    },
  },
}
โมเดลอื่นในแค็ตตาล็อก Mistral ที่มาพร้อมชุดติดตั้งไม่ใช้พารามิเตอร์นี้ ใช้โมเดล magistral-* ต่อไปเมื่อคุณต้องการพฤติกรรม reasoning-first แบบเนทีฟของ Mistral
Mistral สามารถให้บริการ memory embeddings ผ่าน /v1/embeddings (โมเดลเริ่มต้น: mistral-embed)
{
  memorySearch: { provider: "mistral" },
}
  • Auth ของ Mistral ใช้ MISTRAL_API_KEY (Bearer header)
  • Base URL ของผู้ให้บริการมีค่าเริ่มต้นเป็น https://api.mistral.ai/v1 และรับรูปแบบคำขอ chat-completions มาตรฐานที่เข้ากันได้กับ OpenAI
  • โมเดลเริ่มต้นของ onboarding คือ mistral/mistral-large-latest
  • แทนที่ base URL ภายใต้ models.providers.mistral.baseUrl เฉพาะเมื่อ Mistral เผยแพร่ regional endpoint ที่คุณต้องใช้ไว้อย่างชัดเจนเท่านั้น

ที่เกี่ยวข้อง

การเลือกโมเดล

การเลือกผู้ให้บริการ, model refs และพฤติกรรม failover

การทำความเข้าใจสื่อ

การตั้งค่าการถอดเสียงเสียงและการเลือกผู้ให้บริการ