Langsung ke konten utama

Penyedia model

Halaman ini membahas penyedia LLM/model (bukan saluran chat seperti WhatsApp/Telegram). Untuk aturan pemilihan model, lihat /concepts/models.

Aturan cepat

  • Referensi model menggunakan provider/model (contoh: opencode/claude-opus-4-6).
  • Jika Anda menetapkan agents.defaults.models, itu akan menjadi allowlist.
  • Helper CLI: openclaw onboard, openclaw models list, openclaw models set <provider/model>.
  • Aturan runtime fallback, probe cooldown, dan persistensi override sesi didokumentasikan di /concepts/model-failover.
  • models.providers.*.models[].contextWindow adalah metadata model native; models.providers.*.models[].contextTokens adalah batas runtime efektif.
  • Plugin penyedia dapat menyuntikkan katalog model melalui registerProvider({ catalog }); OpenClaw menggabungkan keluaran tersebut ke dalam models.providers sebelum menulis models.json.
  • Manifes penyedia dapat mendeklarasikan providerAuthEnvVars dan providerAuthAliases sehingga probe autentikasi generik berbasis env dan varian penyedia tidak perlu memuat runtime Plugin. Peta env-var inti yang tersisa sekarang hanya untuk penyedia non-Plugin/inti dan beberapa kasus prioritas generik seperti onboarding Anthropic yang mengutamakan API key.
  • Plugin penyedia juga dapat memiliki perilaku runtime penyedia melalui normalizeModelId, normalizeTransport, normalizeConfig, applyNativeStreamingUsageCompat, resolveConfigApiKey, resolveSyntheticAuth, shouldDeferSyntheticProfileAuth, resolveDynamicModel, prepareDynamicModel, normalizeResolvedModel, contributeResolvedModelCompat, capabilities, normalizeToolSchemas, inspectToolSchemas, resolveReasoningOutputMode, prepareExtraParams, createStreamFn, wrapStreamFn, resolveTransportTurnState, resolveWebSocketSessionPolicy, createEmbeddingProvider, formatApiKey, refreshOAuth, buildAuthDoctorHint, matchesContextOverflowError, classifyFailoverReason, isCacheTtlEligible, buildMissingAuthMessage, suppressBuiltInModel, augmentModelCatalog, isBinaryThinking, supportsXHighThinking, resolveDefaultThinkingLevel, applyConfigDefaults, isModernModelRef, prepareRuntimeAuth, resolveUsageAuth, fetchUsageSnapshot, dan onModelSelected.
  • Catatan: runtime penyedia capabilities adalah metadata runner bersama (keluarga penyedia, kekhasan transkrip/tooling, petunjuk transport/cache). Ini bukan hal yang sama dengan model capability publik yang menjelaskan apa yang didaftarkan oleh sebuah Plugin (inferensi teks, ucapan, dll.).
  • Penyedia codex bawaan dipasangkan dengan harness agen Codex bawaan. Gunakan codex/gpt-* saat Anda menginginkan login yang dimiliki Codex, penemuan model, resume thread native, dan eksekusi server aplikasi. Referensi openai/gpt-* biasa tetap menggunakan penyedia OpenAI dan transport penyedia OpenClaw normal. Deployment khusus Codex dapat menonaktifkan fallback PI otomatis dengan agents.defaults.embeddedHarness.fallback: "none"; lihat Codex Harness.

Perilaku penyedia yang dimiliki Plugin

Plugin penyedia kini dapat memiliki sebagian besar logika khusus penyedia sementara OpenClaw mempertahankan loop inferensi generik. Pembagian umum:
  • auth[].run / auth[].runNonInteractive: penyedia memiliki alur onboarding/login untuk openclaw onboard, openclaw models auth, dan penyiapan headless
  • wizard.setup / wizard.modelPicker: penyedia memiliki label pilihan autentikasi, alias lama, petunjuk allowlist onboarding, dan entri penyiapan di pemilih onboarding/model
  • catalog: penyedia muncul di models.providers
  • normalizeModelId: penyedia menormalkan id model lama/pratinjau sebelum pencarian atau kanonisasi
  • normalizeTransport: penyedia menormalkan api / baseUrl keluarga transport sebelum perakitan model generik; OpenClaw memeriksa penyedia yang cocok terlebih dahulu, lalu Plugin penyedia lain yang mampu menjalankan hook sampai salah satunya benar-benar mengubah transport
  • normalizeConfig: penyedia menormalkan konfigurasi models.providers.<id> sebelum runtime menggunakannya; OpenClaw memeriksa penyedia yang cocok terlebih dahulu, lalu Plugin penyedia lain yang mampu menjalankan hook sampai salah satunya benar-benar mengubah konfigurasi. Jika tidak ada hook penyedia yang menulis ulang konfigurasi, helper keluarga Google bawaan tetap menormalkan entri penyedia Google yang didukung.
  • applyNativeStreamingUsageCompat: penyedia menerapkan penulisan ulang kompatibilitas penggunaan streaming native berbasis endpoint untuk penyedia konfigurasi
  • resolveConfigApiKey: penyedia menyelesaikan autentikasi penanda env untuk penyedia konfigurasi tanpa memaksa pemuatan autentikasi runtime penuh. amazon-bedrock juga memiliki resolver penanda env AWS bawaan di sini, meskipun autentikasi runtime Bedrock menggunakan rantai default AWS SDK.
  • resolveSyntheticAuth: penyedia dapat mengekspos ketersediaan autentikasi lokal/self-hosted atau autentikasi lain yang didukung konfigurasi tanpa menyimpan secret plaintext
  • shouldDeferSyntheticProfileAuth: penyedia dapat menandai placeholder profil sintetis yang disimpan sebagai prioritas lebih rendah daripada autentikasi berbasis env/konfigurasi
  • resolveDynamicModel: penyedia menerima id model yang belum ada di katalog statis lokal
  • prepareDynamicModel: penyedia memerlukan refresh metadata sebelum mencoba lagi resolusi model dinamis
  • normalizeResolvedModel: penyedia memerlukan penulisan ulang transport atau base URL
  • contributeResolvedModelCompat: penyedia menyumbangkan flag kompatibilitas untuk model vendor mereka bahkan ketika model tersebut datang melalui transport kompatibel lain
  • capabilities: penyedia memublikasikan kekhasan transkrip/tooling/keluarga penyedia
  • normalizeToolSchemas: penyedia membersihkan skema tool sebelum runner tertanam melihatnya
  • inspectToolSchemas: penyedia menampilkan peringatan skema khusus transport setelah normalisasi
  • resolveReasoningOutputMode: penyedia memilih kontrak keluaran reasoning native vs bertag
  • prepareExtraParams: penyedia menetapkan default atau menormalkan parameter permintaan per model
  • createStreamFn: penyedia mengganti jalur stream normal dengan transport kustom sepenuhnya
  • wrapStreamFn: penyedia menerapkan wrapper kompatibilitas header/body/model permintaan
  • resolveTransportTurnState: penyedia menyediakan header atau metadata transport native per giliran
  • resolveWebSocketSessionPolicy: penyedia menyediakan header sesi WebSocket native atau kebijakan cool-down sesi
  • createEmbeddingProvider: penyedia memiliki perilaku embedding memori saat perilaku tersebut seharusnya berada pada Plugin penyedia, bukan switchboard embedding inti
  • formatApiKey: penyedia memformat profil autentikasi yang disimpan menjadi string runtime apiKey yang diharapkan oleh transport
  • refreshOAuth: penyedia memiliki refresh OAuth ketika refresher bersama pi-ai tidak memadai
  • buildAuthDoctorHint: penyedia menambahkan panduan perbaikan saat refresh OAuth gagal
  • matchesContextOverflowError: penyedia mengenali error luapan jendela konteks khusus penyedia yang terlewat oleh heuristik generik
  • classifyFailoverReason: penyedia memetakan error transport/API mentah khusus penyedia ke alasan failover seperti rate limit atau overload
  • isCacheTtlEligible: penyedia menentukan id model upstream mana yang mendukung TTL prompt cache
  • buildMissingAuthMessage: penyedia mengganti error auth-store generik dengan petunjuk pemulihan khusus penyedia
  • suppressBuiltInModel: penyedia menyembunyikan baris upstream yang usang dan dapat mengembalikan error yang dimiliki vendor untuk kegagalan resolusi langsung
  • augmentModelCatalog: penyedia menambahkan baris katalog sintetis/final setelah penemuan dan penggabungan konfigurasi
  • isBinaryThinking: penyedia memiliki UX thinking biner nyala/mati
  • supportsXHighThinking: penyedia memilih model tertentu agar mendukung xhigh
  • resolveDefaultThinkingLevel: penyedia memiliki kebijakan default /think untuk keluarga model
  • applyConfigDefaults: penyedia menerapkan default global khusus penyedia selama materialisasi konfigurasi berdasarkan mode autentikasi, env, atau keluarga model
  • isModernModelRef: penyedia memiliki pencocokan model pilihan live/smoke
  • prepareRuntimeAuth: penyedia mengubah kredensial yang dikonfigurasi menjadi token runtime berumur pendek
  • resolveUsageAuth: penyedia menyelesaikan kredensial penggunaan/kuota untuk /usage dan permukaan status/pelaporan terkait
  • fetchUsageSnapshot: penyedia memiliki pengambilan/penguraian endpoint penggunaan sementara inti tetap memiliki shell ringkasan dan pemformatannya
  • onModelSelected: penyedia menjalankan efek samping pascapemilihan seperti telemetri atau pembukuan sesi yang dimiliki penyedia
Contoh bawaan saat ini:
  • anthropic: fallback kompatibilitas-maju Claude 4.6, petunjuk perbaikan autentikasi, pengambilan endpoint penggunaan, metadata keluarga penyedia/cache-TTL, dan default konfigurasi global yang sadar autentikasi
  • amazon-bedrock: pencocokan context-overflow yang dimiliki penyedia dan klasifikasi alasan failover untuk error throttle/not-ready khusus Bedrock, ditambah keluarga replay bersama anthropic-by-model untuk guard kebijakan replay khusus Claude pada trafik Anthropic
  • anthropic-vertex: guard kebijakan replay khusus Claude pada trafik pesan Anthropic
  • openrouter: id model pass-through, wrapper permintaan, petunjuk capability penyedia, sanitasi thought-signature Gemini pada trafik proxy Gemini, injeksi reasoning proxy melalui keluarga stream openrouter-thinking, penerusan metadata routing, dan kebijakan cache-TTL
  • github-copilot: onboarding/login perangkat, fallback model kompatibilitas-maju, petunjuk transkrip Claude-thinking, pertukaran token runtime, dan pengambilan endpoint penggunaan
  • openai: fallback kompatibilitas-maju GPT-5.4, normalisasi transport OpenAI langsung, petunjuk autentikasi hilang yang sadar Codex, penekanan Spark, baris katalog OpenAI/Codex sintetis, kebijakan thinking/model live, normalisasi alias token penggunaan (input / output dan keluarga prompt / completion), keluarga stream bersama openai-responses-defaults untuk wrapper OpenAI/Codex native, metadata keluarga penyedia, pendaftaran penyedia pembuatan gambar bawaan untuk gpt-image-1, dan pendaftaran penyedia pembuatan video bawaan untuk sora-2
  • google dan google-gemini-cli: fallback kompatibilitas-maju Gemini 3.1, validasi replay Gemini native, sanitasi replay bootstrap, mode keluaran reasoning bertag, pencocokan model modern, pendaftaran penyedia pembuatan gambar bawaan untuk model image-preview Gemini, dan pendaftaran penyedia pembuatan video bawaan untuk model Veo; OAuth Gemini CLI juga memiliki pemformatan token profil autentikasi, penguraian token penggunaan, dan pengambilan endpoint kuota untuk permukaan penggunaan
  • moonshot: transport bersama, normalisasi muatan thinking yang dimiliki Plugin
  • kilocode: transport bersama, header permintaan yang dimiliki Plugin, normalisasi muatan reasoning, sanitasi thought-signature proxy-Gemini, dan kebijakan cache-TTL
  • zai: fallback kompatibilitas-maju GLM-5, default tool_stream, kebijakan cache-TTL, kebijakan thinking biner/model live, dan autentikasi penggunaan + pengambilan kuota; id glm-5* yang tidak dikenal disintesis dari templat glm-4.7 bawaan
  • xai: normalisasi transport Responses native, penulisan ulang alias /fast untuk varian cepat Grok, default tool_stream, pembersihan skema tool / muatan reasoning khusus xAI, dan pendaftaran penyedia pembuatan video bawaan untuk grok-imagine-video
  • mistral: metadata capability yang dimiliki Plugin
  • opencode dan opencode-go: metadata capability yang dimiliki Plugin ditambah sanitasi thought-signature proxy-Gemini
  • alibaba: katalog pembuatan video yang dimiliki Plugin untuk referensi model Wan langsung seperti alibaba/wan2.6-t2v
  • byteplus: katalog yang dimiliki Plugin ditambah pendaftaran penyedia pembuatan video bawaan untuk model Seedance text-to-video/image-to-video
  • fal: pendaftaran penyedia pembuatan video bawaan untuk penyedia pembuatan gambar pihak ketiga yang di-hosting untuk model gambar FLUX ditambah pendaftaran penyedia pembuatan video bawaan untuk model video pihak ketiga yang di-hosting
  • cloudflare-ai-gateway, huggingface, kimi, nvidia, qianfan, stepfun, synthetic, venice, vercel-ai-gateway, dan volcengine: hanya katalog yang dimiliki Plugin
  • qwen: katalog yang dimiliki Plugin untuk model teks ditambah pendaftaran penyedia media-understanding dan pembuatan video bersama untuk permukaan multimodalnya; pembuatan video Qwen menggunakan endpoint video DashScope Standar dengan model Wan bawaan seperti wan2.6-t2v dan wan2.7-r2v
  • runway: pendaftaran penyedia pembuatan video yang dimiliki Plugin untuk model native berbasis tugas Runway seperti gen4.5
  • minimax: katalog yang dimiliki Plugin, pendaftaran penyedia pembuatan video bawaan untuk model video Hailuo, pendaftaran penyedia pembuatan gambar bawaan untuk image-01, pemilihan kebijakan replay hibrida Anthropic/OpenAI, dan logika autentikasi/snapshot penggunaan
  • together: katalog yang dimiliki Plugin ditambah pendaftaran penyedia pembuatan video bawaan untuk model video Wan
  • xiaomi: katalog yang dimiliki Plugin ditambah logika autentikasi/snapshot penggunaan
Plugin openai bawaan sekarang memiliki kedua id penyedia: openai dan openai-codex. Itu mencakup penyedia yang masih sesuai dengan transport normal OpenClaw. Penyedia yang memerlukan eksekutor permintaan kustom sepenuhnya adalah permukaan ekstensi terpisah yang lebih mendalam.

Rotasi API key

  • Mendukung rotasi penyedia generik untuk penyedia tertentu.
  • Konfigurasikan beberapa key melalui:
    • OPENCLAW_LIVE_<PROVIDER>_KEY (satu override live, prioritas tertinggi)
    • <PROVIDER>_API_KEYS (daftar dipisahkan koma atau titik koma)
    • <PROVIDER>_API_KEY (key utama)
    • <PROVIDER>_API_KEY_* (daftar bernomor, misalnya <PROVIDER>_API_KEY_1)
  • Untuk penyedia Google, GOOGLE_API_KEY juga disertakan sebagai fallback.
  • Urutan pemilihan key mempertahankan prioritas dan menghapus duplikasi nilai.
  • Permintaan dicoba ulang dengan key berikutnya hanya pada respons rate-limit (misalnya 429, rate_limit, quota, resource exhausted, Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded, atau pesan batas penggunaan periodik).
  • Kegagalan non-rate-limit langsung gagal; tidak ada rotasi key yang dicoba.
  • Saat semua key kandidat gagal, error final dikembalikan dari percobaan terakhir.

Penyedia bawaan (katalog pi-ai)

OpenClaw dikirim dengan katalog pi-ai. Penyedia ini tidak memerlukan konfigurasi models.providers; cukup tetapkan autentikasi + pilih model.

OpenAI

  • Penyedia: openai
  • Autentikasi: OPENAI_API_KEY
  • Rotasi opsional: OPENAI_API_KEYS, OPENAI_API_KEY_1, OPENAI_API_KEY_2, ditambah OPENCLAW_LIVE_OPENAI_KEY (satu override)
  • Contoh model: openai/gpt-5.4, openai/gpt-5.4-pro
  • CLI: openclaw onboard --auth-choice openai-api-key
  • Transport default adalah auto (WebSocket lebih dulu, fallback SSE)
  • Override per model melalui agents.defaults.models["openai/<model>"].params.transport ("sse", "websocket", atau "auto")
  • Warm-up WebSocket OpenAI Responses default-nya aktif melalui params.openaiWsWarmup (true/false)
  • Pemrosesan prioritas OpenAI dapat diaktifkan melalui agents.defaults.models["openai/<model>"].params.serviceTier
  • /fast dan params.fastMode memetakan permintaan Responses openai/* langsung ke service_tier=priority pada api.openai.com
  • Gunakan params.serviceTier saat Anda menginginkan tier eksplisit alih-alih toggle /fast bersama
  • Header atribusi OpenClaw tersembunyi (originator, version, User-Agent) hanya berlaku pada trafik OpenAI native ke api.openai.com, bukan proxy generik yang kompatibel dengan OpenAI
  • Rute OpenAI native juga mempertahankan store Responses, petunjuk prompt-cache, dan pembentukan payload kompatibilitas reasoning OpenAI; rute proxy tidak
  • openai/gpt-5.3-codex-spark sengaja ditekan di OpenClaw karena API OpenAI live menolaknya; Spark diperlakukan sebagai khusus Codex
{
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

Anthropic

  • Penyedia: anthropic
  • Autentikasi: ANTHROPIC_API_KEY
  • Rotasi opsional: ANTHROPIC_API_KEYS, ANTHROPIC_API_KEY_1, ANTHROPIC_API_KEY_2, ditambah OPENCLAW_LIVE_ANTHROPIC_KEY (satu override)
  • Contoh model: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice apiKey
  • Permintaan Anthropic publik langsung mendukung toggle /fast bersama dan params.fastMode, termasuk trafik yang diautentikasi dengan API key dan OAuth yang dikirim ke api.anthropic.com; OpenClaw memetakannya ke Anthropic service_tier (auto vs standard_only)
  • Catatan Anthropic: staf Anthropic memberi tahu kami bahwa penggunaan Claude CLI gaya OpenClaw diperbolehkan lagi, sehingga OpenClaw memperlakukan penggunaan ulang Claude CLI dan penggunaan claude -p sebagai diizinkan untuk integrasi ini kecuali Anthropic menerbitkan kebijakan baru.
  • Setup-token Anthropic tetap tersedia sebagai jalur token OpenClaw yang didukung, tetapi OpenClaw sekarang lebih memilih penggunaan ulang Claude CLI dan claude -p saat tersedia.
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Code (Codex)

  • Penyedia: openai-codex
  • Autentikasi: OAuth (ChatGPT)
  • Contoh model: openai-codex/gpt-5.4
  • CLI: openclaw onboard --auth-choice openai-codex atau openclaw models auth login --provider openai-codex
  • Transport default adalah auto (WebSocket lebih dulu, fallback SSE)
  • Override per model melalui agents.defaults.models["openai-codex/<model>"].params.transport ("sse", "websocket", atau "auto")
  • params.serviceTier juga diteruskan pada permintaan Responses Codex native (chatgpt.com/backend-api)
  • Header atribusi OpenClaw tersembunyi (originator, version, User-Agent) hanya dilampirkan pada trafik Codex native ke chatgpt.com/backend-api, bukan proxy generik yang kompatibel dengan OpenAI
  • Berbagi toggle /fast dan konfigurasi params.fastMode yang sama dengan openai/* langsung; OpenClaw memetakannya ke service_tier=priority
  • openai-codex/gpt-5.3-codex-spark tetap tersedia saat katalog OAuth Codex mengeksposnya; bergantung pada entitlement
  • openai-codex/gpt-5.4 mempertahankan contextWindow = 1050000 native dan contextTokens = 272000 runtime default; override batas runtime dengan models.providers.openai-codex.models[].contextTokens
  • Catatan kebijakan: OAuth OpenAI Codex secara eksplisit didukung untuk tool/alur kerja eksternal seperti OpenClaw.
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.4", contextTokens: 160000 }],
      },
    },
  },
}

Opsi hosted bergaya langganan lainnya

  • Qwen Cloud: permukaan penyedia Qwen Cloud ditambah pemetaan endpoint Alibaba DashScope dan Coding Plan
  • MiniMax: OAuth MiniMax Coding Plan atau akses API key
  • GLM Models: Z.AI Coding Plan atau endpoint API umum

OpenCode

  • Autentikasi: OPENCODE_API_KEY (atau OPENCODE_ZEN_API_KEY)
  • Penyedia runtime Zen: opencode
  • Penyedia runtime Go: opencode-go
  • Contoh model: opencode/claude-opus-4-6, opencode-go/kimi-k2.5
  • CLI: openclaw onboard --auth-choice opencode-zen atau openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (API key)

  • Penyedia: google
  • Autentikasi: GEMINI_API_KEY
  • Rotasi opsional: GEMINI_API_KEYS, GEMINI_API_KEY_1, GEMINI_API_KEY_2, fallback GOOGLE_API_KEY, dan OPENCLAW_LIVE_GEMINI_KEY (satu override)
  • Contoh model: google/gemini-3.1-pro-preview, google/gemini-3-flash-preview
  • Kompatibilitas: konfigurasi OpenClaw lama yang menggunakan google/gemini-3.1-flash-preview dinormalisasi menjadi google/gemini-3-flash-preview
  • CLI: openclaw onboard --auth-choice gemini-api-key
  • Eksekusi Gemini langsung juga menerima agents.defaults.models["google/<model>"].params.cachedContent (atau cached_content lama) untuk meneruskan handle cachedContents/... native penyedia; cache hit Gemini muncul sebagai OpenClaw cacheRead

Google Vertex dan Gemini CLI

  • Penyedia: google-vertex, google-gemini-cli
  • Autentikasi: Vertex menggunakan gcloud ADC; Gemini CLI menggunakan alur OAuth-nya
  • Perhatian: OAuth Gemini CLI di OpenClaw adalah integrasi tidak resmi. Beberapa pengguna melaporkan pembatasan akun Google setelah menggunakan klien pihak ketiga. Tinjau ketentuan Google dan gunakan akun yang tidak kritis jika Anda memilih untuk melanjutkan.
  • OAuth Gemini CLI dikirim sebagai bagian dari Plugin google bawaan.
    • Instal Gemini CLI terlebih dahulu:
      • brew install gemini-cli
      • atau npm install -g @google/gemini-cli
    • Aktifkan: openclaw plugins enable google
    • Login: openclaw models auth login --provider google-gemini-cli --set-default
    • Model default: google-gemini-cli/gemini-3-flash-preview
    • Catatan: Anda tidak menempelkan client id atau secret ke openclaw.json. Alur login CLI menyimpan token dalam profil autentikasi di host Gateway.
    • Jika permintaan gagal setelah login, setel GOOGLE_CLOUD_PROJECT atau GOOGLE_CLOUD_PROJECT_ID di host Gateway.
    • Balasan JSON Gemini CLI diurai dari response; penggunaan akan fallback ke stats, dengan stats.cached dinormalisasi menjadi OpenClaw cacheRead.

Z.AI (GLM)

  • Penyedia: zai
  • Autentikasi: ZAI_API_KEY
  • Contoh model: zai/glm-5.1
  • CLI: openclaw onboard --auth-choice zai-api-key
    • Alias: z.ai/* dan z-ai/* dinormalisasi menjadi zai/*
    • zai-api-key mendeteksi otomatis endpoint Z.AI yang cocok; zai-coding-global, zai-coding-cn, zai-global, dan zai-cn memaksa permukaan tertentu

Vercel AI Gateway

  • Penyedia: vercel-ai-gateway
  • Autentikasi: AI_GATEWAY_API_KEY
  • Contoh model: vercel-ai-gateway/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • Penyedia: kilocode
  • Autentikasi: KILOCODE_API_KEY
  • Contoh model: kilocode/kilo/auto
  • CLI: openclaw onboard --auth-choice kilocode-api-key
  • Base URL: https://api.kilo.ai/api/gateway/
  • Katalog fallback statis dikirim dengan kilocode/kilo/auto; penemuan live https://api.kilo.ai/api/gateway/models dapat memperluas katalog runtime lebih lanjut.
  • Routing upstream yang tepat di balik kilocode/kilo/auto dimiliki oleh Kilo Gateway, tidak di-hardcode di OpenClaw.
Lihat /providers/kilocode untuk detail penyiapan.

Plugin penyedia bawaan lainnya

  • OpenRouter: openrouter (OPENROUTER_API_KEY)
  • Contoh model: openrouter/auto
  • OpenClaw menerapkan header atribusi aplikasi yang didokumentasikan OpenRouter hanya saat permintaan benar-benar menargetkan openrouter.ai
  • Penanda cache_control Anthropic khusus OpenRouter juga dibatasi ke rute OpenRouter yang terverifikasi, bukan URL proxy sembarang
  • OpenRouter tetap berada di jalur kompatibel OpenAI bergaya proxy, sehingga pembentukan permintaan khusus OpenAI native (serviceTier, Responses store, petunjuk prompt-cache, payload kompatibilitas reasoning OpenAI) tidak diteruskan
  • Referensi OpenRouter berbasis Gemini hanya mempertahankan sanitasi thought-signature proxy-Gemini; validasi replay Gemini native dan penulisan ulang bootstrap tetap dinonaktifkan
  • Kilo Gateway: kilocode (KILOCODE_API_KEY)
  • Contoh model: kilocode/kilo/auto
  • Referensi Kilo berbasis Gemini mempertahankan jalur sanitasi thought-signature proxy-Gemini yang sama; kilocode/kilo/auto dan petunjuk proxy-reasoning-tidak-didukung lainnya melewati injeksi reasoning proxy
  • MiniMax: minimax (API key) dan minimax-portal (OAuth)
  • Autentikasi: MINIMAX_API_KEY untuk minimax; MINIMAX_OAUTH_TOKEN atau MINIMAX_API_KEY untuk minimax-portal
  • Contoh model: minimax/MiniMax-M2.7 atau minimax-portal/MiniMax-M2.7
  • Onboarding MiniMax/penyiapan API key menulis definisi model M2.7 eksplisit dengan input: ["text", "image"]; katalog penyedia bawaan mempertahankan referensi chat hanya teks sampai konfigurasi penyedia tersebut dimaterialisasi
  • Moonshot: moonshot (MOONSHOT_API_KEY)
  • Contoh model: moonshot/kimi-k2.5
  • Kimi Coding: kimi (KIMI_API_KEY atau KIMICODE_API_KEY)
  • Contoh model: kimi/kimi-code
  • Qianfan: qianfan (QIANFAN_API_KEY)
  • Contoh model: qianfan/deepseek-v3.2
  • Qwen Cloud: qwen (QWEN_API_KEY, MODELSTUDIO_API_KEY, atau DASHSCOPE_API_KEY)
  • Contoh model: qwen/qwen3.5-plus
  • NVIDIA: nvidia (NVIDIA_API_KEY)
  • Contoh model: nvidia/nvidia/llama-3.1-nemotron-70b-instruct
  • StepFun: stepfun / stepfun-plan (STEPFUN_API_KEY)
  • Contoh model: stepfun/step-3.5-flash, stepfun-plan/step-3.5-flash-2603
  • Together: together (TOGETHER_API_KEY)
  • Contoh model: together/moonshotai/Kimi-K2.5
  • Venice: venice (VENICE_API_KEY)
  • Xiaomi: xiaomi (XIAOMI_API_KEY)
  • Contoh model: xiaomi/mimo-v2-flash
  • Vercel AI Gateway: vercel-ai-gateway (AI_GATEWAY_API_KEY)
  • Hugging Face Inference: huggingface (HUGGINGFACE_HUB_TOKEN atau HF_TOKEN)
  • Cloudflare AI Gateway: cloudflare-ai-gateway (CLOUDFLARE_AI_GATEWAY_API_KEY)
  • Volcengine: volcengine (VOLCANO_ENGINE_API_KEY)
  • Contoh model: volcengine-plan/ark-code-latest
  • BytePlus: byteplus (BYTEPLUS_API_KEY)
  • Contoh model: byteplus-plan/ark-code-latest
  • xAI: xai (XAI_API_KEY)
    • Permintaan xAI native bawaan menggunakan jalur xAI Responses
    • /fast atau params.fastMode: true menulis ulang grok-3, grok-3-mini, grok-4, dan grok-4-0709 ke varian *-fast mereka
    • tool_stream aktif secara default; setel agents.defaults.models["xai/<model>"].params.tool_stream ke false untuk menonaktifkannya
  • Mistral: mistral (MISTRAL_API_KEY)
  • Contoh model: mistral/mistral-large-latest
  • CLI: openclaw onboard --auth-choice mistral-api-key
  • Groq: groq (GROQ_API_KEY)
  • Cerebras: cerebras (CEREBRAS_API_KEY)
    • Model GLM di Cerebras menggunakan id zai-glm-4.7 dan zai-glm-4.6.
    • Base URL kompatibel OpenAI: https://api.cerebras.ai/v1.
  • GitHub Copilot: github-copilot (COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN)
  • Contoh model Hugging Face Inference: huggingface/deepseek-ai/DeepSeek-R1; CLI: openclaw onboard --auth-choice huggingface-api-key. Lihat Hugging Face (Inference).

Penyedia melalui models.providers (kustom/base URL)

Gunakan models.providers (atau models.json) untuk menambahkan penyedia kustom atau proxy yang kompatibel dengan OpenAI/Anthropic. Banyak Plugin penyedia bawaan di bawah ini sudah memublikasikan katalog default. Gunakan entri models.providers.<id> eksplisit hanya saat Anda ingin mengganti base URL, header, atau daftar model default.

Moonshot AI (Kimi)

Moonshot dikirim sebagai Plugin penyedia bawaan. Gunakan penyedia bawaan secara default, dan tambahkan entri models.providers.moonshot eksplisit hanya saat Anda perlu mengganti base URL atau metadata model:
  • Penyedia: moonshot
  • Autentikasi: MOONSHOT_API_KEY
  • Contoh model: moonshot/kimi-k2.5
  • CLI: openclaw onboard --auth-choice moonshot-api-key atau openclaw onboard --auth-choice moonshot-api-key-cn
ID model Kimi K2:
  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo
  • moonshot/kimi-k2-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi Coding menggunakan endpoint Moonshot AI yang kompatibel dengan Anthropic:
  • Penyedia: kimi
  • Autentikasi: KIMI_API_KEY
  • Contoh model: kimi/kimi-code
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi/kimi-code" } },
  },
}
kimi/k2p5 lama tetap diterima sebagai id model kompatibilitas.

Volcano Engine (Doubao)

Volcano Engine (火山引擎) menyediakan akses ke Doubao dan model lainnya di Tiongkok.
  • Penyedia: volcengine (coding: volcengine-plan)
  • Autentikasi: VOLCANO_ENGINE_API_KEY
  • Contoh model: volcengine-plan/ark-code-latest
  • CLI: openclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
  },
}
Onboarding secara default menggunakan permukaan coding, tetapi katalog umum volcengine/* juga didaftarkan pada saat yang sama. Dalam pemilih onboarding/konfigurasi model, pilihan autentikasi Volcengine lebih mengutamakan baris volcengine/* dan volcengine-plan/*. Jika model-model tersebut belum dimuat, OpenClaw akan fallback ke katalog yang tidak difilter alih-alih menampilkan pemilih bercakupan penyedia yang kosong. Model yang tersedia:
  • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127 (Kimi K2.5)
  • volcengine/glm-4-7-251222 (GLM 4.7)
  • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)
Model coding (volcengine-plan):
  • volcengine-plan/ark-code-latest
  • volcengine-plan/doubao-seed-code
  • volcengine-plan/kimi-k2.5
  • volcengine-plan/kimi-k2-thinking
  • volcengine-plan/glm-4.7

BytePlus (Internasional)

BytePlus ARK menyediakan akses ke model yang sama seperti Volcano Engine untuk pengguna internasional.
  • Penyedia: byteplus (coding: byteplus-plan)
  • Autentikasi: BYTEPLUS_API_KEY
  • Contoh model: byteplus-plan/ark-code-latest
  • CLI: openclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
  },
}
Onboarding secara default menggunakan permukaan coding, tetapi katalog umum byteplus/* juga didaftarkan pada saat yang sama. Dalam pemilih onboarding/konfigurasi model, pilihan autentikasi BytePlus lebih mengutamakan baris byteplus/* dan byteplus-plan/*. Jika model-model tersebut belum dimuat, OpenClaw akan fallback ke katalog yang tidak difilter alih-alih menampilkan pemilih bercakupan penyedia yang kosong. Model yang tersedia:
  • byteplus/seed-1-8-251228 (Seed 1.8)
  • byteplus/kimi-k2-5-260127 (Kimi K2.5)
  • byteplus/glm-4-7-251222 (GLM 4.7)
Model coding (byteplus-plan):
  • byteplus-plan/ark-code-latest
  • byteplus-plan/doubao-seed-code
  • byteplus-plan/kimi-k2.5
  • byteplus-plan/kimi-k2-thinking
  • byteplus-plan/glm-4.7

Synthetic

Synthetic menyediakan model yang kompatibel dengan Anthropic di balik penyedia synthetic:
  • Penyedia: synthetic
  • Autentikasi: SYNTHETIC_API_KEY
  • Contoh model: synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLI: openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMax dikonfigurasi melalui models.providers karena menggunakan endpoint kustom:
  • OAuth MiniMax (Global): --auth-choice minimax-global-oauth
  • OAuth MiniMax (CN): --auth-choice minimax-cn-oauth
  • API key MiniMax (Global): --auth-choice minimax-global-api
  • API key MiniMax (CN): --auth-choice minimax-cn-api
  • Autentikasi: MINIMAX_API_KEY untuk minimax; MINIMAX_OAUTH_TOKEN atau MINIMAX_API_KEY untuk minimax-portal
Lihat /providers/minimax untuk detail penyiapan, opsi model, dan cuplikan konfigurasi. Pada jalur streaming MiniMax yang kompatibel dengan Anthropic, OpenClaw menonaktifkan thinking secara default kecuali Anda menetapkannya secara eksplisit, dan /fast on menulis ulang MiniMax-M2.7 menjadi MiniMax-M2.7-highspeed. Pembagian capability yang dimiliki Plugin:
  • Default teks/chat tetap pada minimax/MiniMax-M2.7
  • Pembuatan gambar adalah minimax/image-01 atau minimax-portal/image-01
  • Pemahaman gambar adalah MiniMax-VL-01 yang dimiliki Plugin pada kedua jalur autentikasi MiniMax
  • Pencarian web tetap pada id penyedia minimax

LM Studio

LM Studio dikirim sebagai Plugin penyedia bawaan yang menggunakan API native:
  • Penyedia: lmstudio
  • Autentikasi: LM_API_TOKEN
  • Base URL inferensi default: http://localhost:1234/v1
Lalu tetapkan model (ganti dengan salah satu ID yang dikembalikan oleh http://localhost:1234/api/v1/models):
{
  agents: {
    defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
  },
}
OpenClaw menggunakan /api/v1/models dan /api/v1/models/load native milik LM Studio untuk penemuan + auto-load, dengan /v1/chat/completions untuk inferensi secara default. Lihat /providers/lmstudio untuk penyiapan dan pemecahan masalah.

Ollama

Ollama dikirim sebagai Plugin penyedia bawaan dan menggunakan API native Ollama:
# Instal Ollama, lalu tarik sebuah model:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}
Ollama dideteksi secara lokal di http://127.0.0.1:11434 saat Anda memilih ikut serta dengan OLLAMA_API_KEY, dan Plugin penyedia bawaan menambahkan Ollama langsung ke openclaw onboard dan pemilih model. Lihat /providers/ollama untuk onboarding, mode cloud/lokal, dan konfigurasi kustom.

vLLM

vLLM dikirim sebagai Plugin penyedia bawaan untuk server lokal/self-hosted yang kompatibel dengan OpenAI:
  • Penyedia: vllm
  • Autentikasi: Opsional (tergantung server Anda)
  • Base URL default: http://127.0.0.1:8000/v1
Untuk ikut serta dalam auto-discovery secara lokal (nilai apa pun berfungsi jika server Anda tidak menegakkan autentikasi):
export VLLM_API_KEY="vllm-local"
Lalu tetapkan model (ganti dengan salah satu ID yang dikembalikan oleh /v1/models):
{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}
Lihat /providers/vllm untuk detail.

SGLang

SGLang dikirim sebagai Plugin penyedia bawaan untuk server self-hosted cepat yang kompatibel dengan OpenAI:
  • Penyedia: sglang
  • Autentikasi: Opsional (tergantung server Anda)
  • Base URL default: http://127.0.0.1:30000/v1
Untuk ikut serta dalam auto-discovery secara lokal (nilai apa pun berfungsi jika server Anda tidak menegakkan autentikasi):
export SGLANG_API_KEY="sglang-local"
Lalu tetapkan model (ganti dengan salah satu ID yang dikembalikan oleh /v1/models):
{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}
Lihat /providers/sglang untuk detail.

Proxy lokal (LM Studio, vLLM, LiteLLM, dll.)

Contoh (kompatibel dengan OpenAI):
{
  agents: {
    defaults: {
      model: { primary: "lmstudio/my-local-model" },
      models: { "lmstudio/my-local-model": { alias: "Local" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "my-local-model",
            name: "Model Lokal",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}
Catatan:
  • Untuk penyedia kustom, reasoning, input, cost, contextWindow, dan maxTokens bersifat opsional. Jika dihilangkan, OpenClaw menggunakan default:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • Disarankan: tetapkan nilai eksplisit yang sesuai dengan batas proxy/model Anda.
  • Untuk api: "openai-completions" pada endpoint non-native (setiap baseUrl tidak kosong yang host-nya bukan api.openai.com), OpenClaw memaksa compat.supportsDeveloperRole: false untuk menghindari error 400 dari penyedia untuk peran developer yang tidak didukung.
  • Rute kompatibel OpenAI bergaya proxy juga melewati pembentukan permintaan khusus OpenAI native: tidak ada service_tier, tidak ada store Responses, tidak ada petunjuk prompt-cache, tidak ada pembentukan payload kompatibilitas reasoning OpenAI, dan tidak ada header atribusi OpenClaw tersembunyi.
  • Jika baseUrl kosong/dihilangkan, OpenClaw mempertahankan perilaku OpenAI default (yang diselesaikan ke api.openai.com).
  • Demi keamanan, compat.supportsDeveloperRole: true eksplisit tetap dioverride pada endpoint openai-completions non-native.

Contoh CLI

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Lihat juga: /gateway/configuration untuk contoh konfigurasi lengkap.

Terkait