Provider di modelli
Questa pagina copre i provider LLM/modelli (non i canali di chat come WhatsApp/Telegram). Per le regole di selezione del modello, vedi /concepts/models.Regole rapide
- I riferimenti ai modelli usano
provider/model(esempio:opencode/claude-opus-4-6). - Se imposti
agents.defaults.models, diventa la allowlist. - Helper CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Le regole di runtime di fallback, le probe di cooldown e la persistenza delle override di sessione sono documentate in /concepts/model-failover.
models.providers.*.models[].contextWindowsono metadati nativi del modello;models.providers.*.models[].contextTokensè il limite effettivo di runtime.- I Plugin provider possono iniettare cataloghi di modelli tramite
registerProvider({ catalog }); OpenClaw unisce questo output inmodels.providersprima di scriveremodels.json. - I manifest dei provider possono dichiarare
providerAuthEnvVarseproviderAuthAliasescosì le probe generiche di autenticazione basate su env e le varianti del provider non devono caricare il runtime del plugin. La mappa rimanente delle variabili env del core ora è solo per i provider non-plugin/core e per alcuni casi di precedenza generica, come l’onboarding Anthropic con priorità alla API key. - I Plugin provider possono anche gestire il comportamento di runtime del provider tramite
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, eonModelSelected. - Nota: le
capabilitiesdi runtime del provider sono metadati condivisi del runner (famiglia del provider, particolarità di trascrizione/tooling, hint di transport/cache). Non sono la stessa cosa del modello di capability pubblico che descrive cosa registra un plugin (inferenza testuale, speech, ecc.). - Il provider
codexincluso è abbinato all’harness agent Codex incluso. Usacodex/gpt-*quando vuoi login gestito da Codex, discovery dei modelli, ripresa nativa dei thread ed esecuzione app-server. I riferimenti sempliciopenai/gpt-*continuano a usare il provider OpenAI e il normale transport provider di OpenClaw. I deployment solo-Codex possono disabilitare il fallback PI automatico conagents.defaults.embeddedHarness.fallback: "none"; vedi Codex Harness.
Comportamento del provider gestito dal plugin
I Plugin provider ora possono gestire la maggior parte della logica specifica del provider mentre OpenClaw mantiene il loop di inferenza generico. Suddivisione tipica:auth[].run/auth[].runNonInteractive: il provider gestisce i flussi di onboarding/login peropenclaw onboard,openclaw models authe la configurazione headlesswizard.setup/wizard.modelPicker: il provider gestisce le etichette di scelta auth, gli alias legacy, gli hint di allowlist per l’onboarding e le voci di configurazione nei selettori onboarding/modellicatalog: il provider appare inmodels.providersnormalizeModelId: il provider normalizza gli id dei modelli legacy/preview prima del lookup o della canonicalizzazionenormalizeTransport: il provider normalizzaapi/baseUrldella famiglia di transport prima dell’assemblaggio generico del modello; OpenClaw controlla prima il provider corrispondente, poi gli altri Plugin provider con hook-capable finché uno non modifica davvero il transportnormalizeConfig: il provider normalizza la configurazionemodels.providers.<id>prima che il runtime la usi; OpenClaw controlla prima il provider corrispondente, poi gli altri Plugin provider con hook-capable finché uno non modifica davvero la configurazione. Se nessun hook del provider riscrive la configurazione, gli helper inclusi della famiglia Google continuano a normalizzare le voci supportate dei provider Google.applyNativeStreamingUsageCompat: il provider applica riscritture di compatibilità native di streaming-usage guidate dagli endpoint per i provider di configurazioneresolveConfigApiKey: il provider risolve l’autenticazione con marker env per i provider di configurazione senza forzare il caricamento completo dell’autenticazione runtime.amazon-bedrockha anche un resolver integrato di marker env AWS qui, anche se l’autenticazione runtime di Bedrock usa la catena predefinita dell’AWS SDK.resolveSyntheticAuth: il provider può esporre la disponibilità di autenticazione locale/self-hosted o altra autenticazione basata su configurazione senza persistere segreti in chiaroshouldDeferSyntheticProfileAuth: il provider può contrassegnare i placeholder sintetici di profilo memorizzati come con precedenza inferiore rispetto all’autenticazione basata su env/configresolveDynamicModel: il provider accetta id di modello non ancora presenti nel catalogo statico localeprepareDynamicModel: il provider richiede un refresh dei metadati prima di ritentare la risoluzione dinamicanormalizeResolvedModel: il provider richiede riscritture di transport o base URLcontributeResolvedModelCompat: il provider contribuisce flag di compatibilità per i suoi modelli vendor anche quando arrivano tramite un altro transport compatibilecapabilities: il provider pubblica particolarità di trascrizione/tooling/famiglia providernormalizeToolSchemas: il provider ripulisce gli schemi dei tool prima che il runner integrato li vedainspectToolSchemas: il provider espone avvisi sugli schemi specifici del transport dopo la normalizzazioneresolveReasoningOutputMode: il provider sceglie tra contratti di output del reasoning nativi o con tagprepareExtraParams: il provider imposta valori predefiniti o normalizza i parametri di richiesta per modellocreateStreamFn: il provider sostituisce il normale percorso di stream con un transport completamente personalizzatowrapStreamFn: il provider applica wrapper di compatibilità a header/body/modello della richiestaresolveTransportTurnState: il provider fornisce header o metadati nativi del transport per turnoresolveWebSocketSessionPolicy: il provider fornisce header nativi della sessione WebSocket o la policy di cool-down della sessionecreateEmbeddingProvider: il provider gestisce il comportamento degli embedding della memoria quando appartiene al Plugin provider invece che allo switchboard embedding del coreformatApiKey: il provider formatta i profili auth memorizzati nella stringaapiKeydi runtime attesa dal transportrefreshOAuth: il provider gestisce il refresh OAuth quando i refresher condivisipi-ainon sono sufficientibuildAuthDoctorHint: il provider aggiunge indicazioni di riparazione quando il refresh OAuth falliscematchesContextOverflowError: il provider riconosce errori di overflow della finestra di contesto specifici del provider che le euristiche generiche non rileverebberoclassifyFailoverReason: il provider mappa errori grezzi specifici del provider del transport/API in motivi di failover come rate limit o overloadisCacheTtlEligible: il provider decide quali id di modello upstream supportano il TTL della prompt-cachebuildMissingAuthMessage: il provider sostituisce l’errore generico dell’auth-store con un hint di recupero specifico del providersuppressBuiltInModel: il provider nasconde righe upstream obsolete e può restituire un errore gestito dal vendor per errori di risoluzione direttaaugmentModelCatalog: il provider aggiunge righe sintetiche/finali al catalogo dopo discovery e merge della configurazioneisBinaryThinking: il provider gestisce l’esperienza thinking binaria on/offsupportsXHighThinking: il provider abilitaxhighper i modelli selezionatiresolveDefaultThinkingLevel: il provider gestisce la policy/thinkpredefinita per una famiglia di modelliapplyConfigDefaults: il provider applica valori globali predefiniti specifici del provider durante la materializzazione della configurazione in base a modalità auth, env o famiglia di modelliisModernModelRef: il provider gestisce la corrispondenza del modello preferito per live/smokeprepareRuntimeAuth: il provider trasforma una credenziale configurata in un token di runtime a breve durataresolveUsageAuth: il provider risolve le credenziali di utilizzo/quota per/usagee le relative superfici di stato/reportingfetchUsageSnapshot: il provider gestisce il recupero/parsing dell’endpoint di utilizzo mentre il core continua a gestire il wrapper di riepilogo e la formattazioneonModelSelected: il provider esegue effetti collaterali post-selezione come telemetria o bookkeeping della sessione gestito dal provider
anthropic: fallback forward-compat per Claude 4.6, hint di riparazione auth, recupero dell’endpoint di utilizzo, metadati cache-TTL/famiglia provider e valori globali predefiniti di configurazione consapevoli dell’authamazon-bedrock: riconoscimento dell’overflow del contesto gestito dal provider e classificazione dei motivi di failover per errori specifici di Bedrock come throttle/not-ready, più la famiglia di replay condivisaanthropic-by-modelper guardrail della replay-policy solo-Claude sul traffico Anthropicanthropic-vertex: guardrail della replay-policy solo-Claude sul traffico Anthropic-messageopenrouter: id modello pass-through, wrapper delle richieste, hint di capability del provider, sanitizzazione della thought-signature Gemini su traffico Gemini tramite proxy, iniezione del reasoning tramite proxy attraverso la famiglia di streamopenrouter-thinking, inoltro dei metadati di routing e policy cache-TTLgithub-copilot: onboarding/login del dispositivo, fallback del modello forward-compat, hint di trascrizione Claude-thinking, scambio di token di runtime e recupero dell’endpoint di utilizzoopenai: fallback forward-compat GPT-5.4, normalizzazione diretta del transport OpenAI, hint di autenticazione mancante consapevoli di Codex, soppressione di Spark, righe sintetiche del catalogo OpenAI/Codex, policy di thinking/modello live, normalizzazione degli alias dei token di utilizzo (input/outpute famiglieprompt/completion), la famiglia di stream condivisaopenai-responses-defaultsper wrapper nativi OpenAI/Codex, metadati della famiglia provider, registrazione inclusa del provider di generazione immagini pergpt-image-1e registrazione inclusa del provider di generazione video persora-2googleegoogle-gemini-cli: fallback forward-compat Gemini 3.1, validazione nativa del replay Gemini, sanitizzazione del replay bootstrap, modalità di output reasoning con tag, corrispondenza dei modelli moderni, registrazione inclusa del provider di generazione immagini per i modelli Gemini image-preview e registrazione inclusa del provider di generazione video per i modelli Veo; Gemini CLI OAuth gestisce anche la formattazione del token del profilo auth, il parsing del token di utilizzo e il recupero dell’endpoint quota per le superfici di utilizzomoonshot: transport condiviso, normalizzazione del payload thinking gestita dal pluginkilocode: transport condiviso, header delle richieste gestiti dal plugin, normalizzazione del payload di reasoning, sanitizzazione della thought-signature proxy-Gemini e policy cache-TTLzai: fallback forward-compat GLM-5, valori predefinititool_stream, policy cache-TTL, policy binary-thinking/live-model e auth di utilizzo + recupero della quota; gli id sconosciutiglm-5*vengono sintetizzati dal template inclusoglm-4.7xai: normalizzazione nativa del transport Responses, riscritture dell’alias/fastper le varianti veloci di Grok, valore predefinitotool_stream, pulizia specifica xAI di tool-schema / reasoning-payload e registrazione inclusa del provider di generazione video pergrok-imagine-videomistral: metadati di capability gestiti dal pluginopencodeeopencode-go: metadati di capability gestiti dal plugin più sanitizzazione della thought-signature proxy-Geminialibaba: catalogo di generazione video gestito dal plugin per riferimenti diretti ai modelli Wan comealibaba/wan2.6-t2vbyteplus: cataloghi gestiti dal plugin più registrazione inclusa del provider di generazione video per i modelli Seedance text-to-video/image-to-videofal: registrazione inclusa del provider di generazione video per modelli video hosted di terze parti registrazione del provider di generazione immagini per i modelli immagine FLUX più registrazione inclusa del provider di generazione video per modelli video hosted di terze particloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,venice,vercel-ai-gatewayevolcengine: solo cataloghi gestiti dal pluginqwen: cataloghi gestiti dal plugin per modelli testuali più registrazioni condivise del provider media-understanding e del provider di generazione video per le sue superfici multimodali; la generazione video Qwen usa gli endpoint video Standard DashScope con modelli Wan inclusi comewan2.6-t2vewan2.7-r2vrunway: registrazione del provider di generazione video gestita dal plugin per modelli nativi Runway basati su task comegen4.5minimax: cataloghi gestiti dal plugin, registrazione inclusa del provider di generazione video per i modelli video Hailuo, registrazione inclusa del provider di generazione immagini perimage-01, selezione ibrida della replay-policy Anthropic/OpenAI e logica auth/snapshot di utilizzotogether: cataloghi gestiti dal plugin più registrazione inclusa del provider di generazione video per i modelli video Wanxiaomi: cataloghi gestiti dal plugin più logica auth/snapshot di utilizzo
openai incluso ora gestisce entrambi gli id provider: openai e
openai-codex.
Questo copre i provider che rientrano ancora nei transport normali di OpenClaw. Un provider
che richiede un esecutore di richieste totalmente personalizzato è una superficie di estensione
separata e più profonda.
Rotazione delle API key
- Supporta la rotazione generica del provider per provider selezionati.
- Configura più chiavi tramite:
OPENCLAW_LIVE_<PROVIDER>_KEY(singolo override live, priorità massima)<PROVIDER>_API_KEYS(lista separata da virgole o punto e virgola)<PROVIDER>_API_KEY(chiave primaria)<PROVIDER>_API_KEY_*(lista numerata, ad esempio<PROVIDER>_API_KEY_1)
- Per i provider Google,
GOOGLE_API_KEYè incluso anche come fallback. - L’ordine di selezione delle chiavi preserva la priorità e rimuove i duplicati.
- Le richieste vengono ritentate con la chiave successiva solo in caso di risposte con rate limit (per
esempio
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededo messaggi periodici di limite di utilizzo). - I fallimenti non dovuti a rate limit falliscono immediatamente; non viene tentata alcuna rotazione delle chiavi.
- Quando tutte le chiavi candidate falliscono, l’errore finale viene restituito dall’ultimo tentativo.
Provider integrati (catalogo pi-ai)
OpenClaw include il catalogo pi‑ai. Questi provider non richiedono alcuna configurazionemodels.providers; basta impostare l’auth e scegliere un modello.
OpenAI
- Provider:
openai - Auth:
OPENAI_API_KEY - Rotazione opzionale:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, piùOPENCLAW_LIVE_OPENAI_KEY(singolo override) - Modelli di esempio:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - Il transport predefinito è
auto(prima WebSocket, fallback SSE) - Override per modello tramite
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"o"auto") - Il warm-up WebSocket di OpenAI Responses è abilitato per impostazione predefinita tramite
params.openaiWsWarmup(true/false) - L’elaborazione prioritaria OpenAI può essere abilitata tramite
agents.defaults.models["openai/<model>"].params.serviceTier /fasteparams.fastModemappano le richieste Responses diretteopenai/*aservice_tier=prioritysuapi.openai.com- Usa
params.serviceTierquando vuoi un tier esplicito invece del toggle condiviso/fast - Gli header di attribuzione nascosti di OpenClaw (
originator,version,User-Agent) si applicano solo al traffico OpenAI nativo versoapi.openai.com, non ai proxy generici compatibili con OpenAI - I percorsi OpenAI nativi mantengono anche
storedi Responses, hint di prompt-cache e modellazione del payload di compatibilità reasoning OpenAI; i percorsi proxy no openai/gpt-5.3-codex-sparkè intenzionalmente soppresso in OpenClaw perché la OpenAI API live lo rifiuta; Spark è trattato solo come Codex
Anthropic
- Provider:
anthropic - Auth:
ANTHROPIC_API_KEY - Rotazione opzionale:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, piùOPENCLAW_LIVE_ANTHROPIC_KEY(singolo override) - Modello di esempio:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Le richieste Anthropic pubbliche dirette supportano anche il toggle condiviso
/fasteparams.fastMode, incluso il traffico autenticato con API key e OAuth inviato aapi.anthropic.com; OpenClaw lo mappa aservice_tierAnthropic (autovsstandard_only) - Nota Anthropic: il personale Anthropic ci ha detto che l’uso in stile Claude CLI di OpenClaw è di nuovo consentito, quindi OpenClaw tratta il riutilizzo di Claude CLI e l’uso di
claude -pcome autorizzati per questa integrazione, a meno che Anthropic non pubblichi una nuova policy. - Il setup-token Anthropic resta disponibile come percorso token OpenClaw supportato, ma OpenClaw ora preferisce il riutilizzo di Claude CLI e
claude -pquando disponibili.
OpenAI Code (Codex)
- Provider:
openai-codex - Auth: OAuth (ChatGPT)
- Modello di esempio:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexoopenclaw models auth login --provider openai-codex - Il transport predefinito è
auto(prima WebSocket, fallback SSE) - Override per modello tramite
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"o"auto") params.serviceTierviene inoltrato anche nelle richieste native Codex Responses (chatgpt.com/backend-api)- Gli header di attribuzione nascosti di OpenClaw (
originator,version,User-Agent) vengono allegati solo al traffico Codex nativo versochatgpt.com/backend-api, non ai proxy generici compatibili con OpenAI - Condivide lo stesso toggle
/faste la stessa configurazioneparams.fastModediopenai/*diretto; OpenClaw lo mappa aservice_tier=priority openai-codex/gpt-5.3-codex-sparkresta disponibile quando il catalogo OAuth Codex lo espone; dipende dai dirittiopenai-codex/gpt-5.4mantiene il valore nativocontextWindow = 1050000e un valore predefinito di runtimecontextTokens = 272000; esegui l’override del limite di runtime conmodels.providers.openai-codex.models[].contextTokens- Nota sulla policy: OpenAI Codex OAuth è esplicitamente supportato per strumenti/workflow esterni come OpenClaw.
Altre opzioni hosted in stile abbonamento
- Qwen Cloud: superficie provider Qwen Cloud più mapping degli endpoint Alibaba DashScope e Coding Plan
- MiniMax: accesso MiniMax Coding Plan con OAuth o API key
- GLM Models: endpoint Z.AI Coding Plan o endpoint API generici
OpenCode
- Auth:
OPENCODE_API_KEY(oOPENCODE_ZEN_API_KEY) - Provider runtime Zen:
opencode - Provider runtime Go:
opencode-go - Modelli di esempio:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenoopenclaw onboard --auth-choice opencode-go
Google Gemini (API key)
- Provider:
google - Auth:
GEMINI_API_KEY - Rotazione opzionale:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, fallbackGOOGLE_API_KEYeOPENCLAW_LIVE_GEMINI_KEY(singolo override) - Modelli di esempio:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilità: la configurazione legacy di OpenClaw che usa
google/gemini-3.1-flash-previewviene normalizzata ingoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Le esecuzioni Gemini dirette accettano anche
agents.defaults.models["google/<model>"].params.cachedContent(o il legacycached_content) per inoltrare un handle nativo del providercachedContents/...; i cache hit Gemini emergono comecacheReaddi OpenClaw
Google Vertex e Gemini CLI
- Provider:
google-vertex,google-gemini-cli - Auth: Vertex usa gcloud ADC; Gemini CLI usa il proprio flusso OAuth
- Attenzione: Gemini CLI OAuth in OpenClaw è un’integrazione non ufficiale. Alcuni utenti hanno segnalato restrizioni dell’account Google dopo l’uso di client di terze parti. Rivedi i termini di Google e usa un account non critico se scegli di procedere.
- Gemini CLI OAuth viene distribuito come parte del plugin
googleincluso.- Installa prima Gemini CLI:
brew install gemini-cli- oppure
npm install -g @google/gemini-cli
- Abilita:
openclaw plugins enable google - Login:
openclaw models auth login --provider google-gemini-cli --set-default - Modello predefinito:
google-gemini-cli/gemini-3-flash-preview - Nota: non incolli un client id o un secret in
openclaw.json. Il flusso di login CLI memorizza i token nei profili auth sull’host Gateway. - Se le richieste falliscono dopo il login, imposta
GOOGLE_CLOUD_PROJECToGOOGLE_CLOUD_PROJECT_IDsull’host Gateway. - Le risposte JSON di Gemini CLI vengono parsate da
response; l’utilizzo usa come fallbackstats, constats.cachednormalizzato incacheReaddi OpenClaw.
- Installa prima Gemini CLI:
Z.AI (GLM)
- Provider:
zai - Auth:
ZAI_API_KEY - Modello di esempio:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Alias:
z.ai/*ez-ai/*vengono normalizzati inzai/* zai-api-keyrileva automaticamente l’endpoint Z.AI corrispondente;zai-coding-global,zai-coding-cn,zai-globalezai-cnforzano una superficie specifica
- Alias:
Vercel AI Gateway
- Provider:
vercel-ai-gateway - Auth:
AI_GATEWAY_API_KEY - Modello di esempio:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provider:
kilocode - Auth:
KILOCODE_API_KEY - Modello di esempio:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - Il catalogo statico di fallback include
kilocode/kilo/auto; la discovery live suhttps://api.kilo.ai/api/gateway/modelspuò espandere ulteriormente il catalogo di runtime. - Il routing upstream esatto dietro
kilocode/kilo/autoè gestito da Kilo Gateway, non hardcoded in OpenClaw.
Altri Plugin provider inclusi
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modello di esempio:
openrouter/auto - OpenClaw applica gli header di attribuzione dell’app documentati da OpenRouter solo quando
la richiesta ha davvero come destinazione
openrouter.ai - I marker Anthropic
cache_controlspecifici di OpenRouter sono analogamente limitati a route OpenRouter verificate, non a URL proxy arbitrari - OpenRouter resta sul percorso compatibile con OpenAI in stile proxy, quindi la
modellazione nativa delle richieste solo-OpenAI (
serviceTier,storedi Responses, hint di prompt-cache, payload di compatibilità reasoning OpenAI) non viene inoltrata - I riferimenti OpenRouter basati su Gemini mantengono solo la sanitizzazione della thought-signature proxy-Gemini; la validazione nativa del replay Gemini e le riscritture bootstrap restano disattivate
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Modello di esempio:
kilocode/kilo/auto - I riferimenti Kilo basati su Gemini mantengono lo stesso percorso di
sanitizzazione della thought-signature proxy-Gemini;
kilocode/kilo/autoe altri hint proxy-reasoning-unsupported saltano l’iniezione del reasoning via proxy - MiniMax:
minimax(API key) eminimax-portal(OAuth) - Auth:
MINIMAX_API_KEYperminimax;MINIMAX_OAUTH_TOKENoMINIMAX_API_KEYperminimax-portal - Modello di esempio:
minimax/MiniMax-M2.7ominimax-portal/MiniMax-M2.7 - L’onboarding/configurazione API key MiniMax scrive definizioni esplicite del modello M2.7 con
input: ["text", "image"]; il catalogo del provider incluso mantiene i riferimenti chat solo testo finché quella configurazione del provider non viene materializzata - Moonshot:
moonshot(MOONSHOT_API_KEY) - Modello di esempio:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYoKIMICODE_API_KEY) - Modello di esempio:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Modello di esempio:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYoDASHSCOPE_API_KEY) - Modello di esempio:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Modello di esempio:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Modelli di esempio:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Modello di esempio:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Modello di esempio:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENoHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Modello di esempio:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Modello di esempio:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Le richieste xAI native incluse usano il percorso xAI Responses
/fastoparams.fastMode: trueriscrivonogrok-3,grok-3-mini,grok-4egrok-4-0709nelle rispettive varianti*-fasttool_streamè attivo per impostazione predefinita; impostaagents.defaults.models["xai/<model>"].params.tool_streamafalseper disabilitarlo
- Mistral:
mistral(MISTRAL_API_KEY) - Modello di esempio:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- I modelli GLM su Cerebras usano gli id
zai-glm-4.7ezai-glm-4.6. - Base URL compatibile con OpenAI:
https://api.cerebras.ai/v1.
- I modelli GLM su Cerebras usano gli id
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Modello di esempio Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Vedi Hugging Face (Inference).
Provider tramite models.providers (base URL personalizzato)
Usa models.providers (o models.json) per aggiungere provider personalizzati o
proxy compatibili con OpenAI/Anthropic.
Molti dei Plugin provider inclusi qui sotto pubblicano già un catalogo predefinito.
Usa voci esplicite models.providers.<id> solo quando vuoi sovrascrivere la
base URL, gli header o l’elenco modelli predefiniti.
Moonshot AI (Kimi)
Moonshot è distribuito come Plugin provider incluso. Usa il provider integrato per impostazione predefinita e aggiungi una voce esplicitamodels.providers.moonshot solo quando
devi sovrascrivere la base URL o i metadati del modello:
- Provider:
moonshot - Auth:
MOONSHOT_API_KEY - Modello di esempio:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyoopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding usa l’endpoint compatibile con Anthropic di Moonshot AI:- Provider:
kimi - Auth:
KIMI_API_KEY - Modello di esempio:
kimi/kimi-code
kimi/k2p5 resta accettato come id modello di compatibilità.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) fornisce accesso a Doubao e ad altri modelli in Cina.- Provider:
volcengine(coding:volcengine-plan) - Auth:
VOLCANO_ENGINE_API_KEY - Modello di esempio:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
viene registrato nello stesso momento.
Nei selettori di onboarding/configurazione modello, la scelta auth Volcengine preferisce sia
le righe volcengine/* sia quelle volcengine-plan/*. Se questi modelli non sono ancora caricati,
OpenClaw torna al catalogo non filtrato invece di mostrare un selettore con ambito provider vuoto.
Modelli disponibili:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internazionale)
BytePlus ARK fornisce accesso agli stessi modelli di Volcano Engine per gli utenti internazionali.- Provider:
byteplus(coding:byteplus-plan) - Auth:
BYTEPLUS_API_KEY - Modello di esempio:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
viene registrato nello stesso momento.
Nei selettori di onboarding/configurazione modello, la scelta auth BytePlus preferisce sia
le righe byteplus/* sia quelle byteplus-plan/*. Se questi modelli non sono ancora caricati,
OpenClaw torna al catalogo non filtrato invece di mostrare un selettore con ambito provider vuoto.
Modelli disponibili:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic fornisce modelli compatibili con Anthropic dietro il providersynthetic:
- Provider:
synthetic - Auth:
SYNTHETIC_API_KEY - Modello di esempio:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax viene configurato tramitemodels.providers perché usa endpoint personalizzati:
- MiniMax OAuth (globale):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - API key MiniMax (globale):
--auth-choice minimax-global-api - API key MiniMax (CN):
--auth-choice minimax-cn-api - Auth:
MINIMAX_API_KEYperminimax;MINIMAX_OAUTH_TOKENoMINIMAX_API_KEYperminimax-portal
/fast on riscrive
MiniMax-M2.7 in MiniMax-M2.7-highspeed.
Suddivisione delle capability gestita dal plugin:
- I valori predefiniti text/chat restano su
minimax/MiniMax-M2.7 - La generazione immagini è
minimax/image-01ominimax-portal/image-01 - L’understanding delle immagini è
MiniMax-VL-01gestito dal plugin su entrambi i percorsi auth MiniMax - La ricerca web resta sull’id provider
minimax
LM Studio
LM Studio è distribuito come Plugin provider incluso che usa l’API nativa:- Provider:
lmstudio - Auth:
LM_API_TOKEN - Base URL di inferenza predefinita:
http://localhost:1234/v1
http://localhost:1234/api/v1/models):
/api/v1/models e /api/v1/models/load
per discovery + auto-load, con /v1/chat/completions per l’inferenza per impostazione predefinita.
Vedi /providers/lmstudio per configurazione e risoluzione dei problemi.
Ollama
Ollama è distribuito come Plugin provider incluso e usa l’API nativa di Ollama:- Provider:
ollama - Auth: nessuna richiesta (server locale)
- Modello di esempio:
ollama/llama3.3 - Installazione: https://ollama.com/download
http://127.0.0.1:11434 quando abiliti
OLLAMA_API_KEY, e il Plugin provider incluso aggiunge Ollama direttamente a
openclaw onboard e al selettore dei modelli. Vedi /providers/ollama
per onboarding, modalità cloud/locale e configurazione personalizzata.
vLLM
vLLM è distribuito come Plugin provider incluso per server compatibili con OpenAI locali/self-hosted:- Provider:
vllm - Auth: opzionale (dipende dal tuo server)
- Base URL predefinita:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
SGLang è distribuito come Plugin provider incluso per server compatibili con OpenAI self-hosted ad alte prestazioni:- Provider:
sglang - Auth: opzionale (dipende dal tuo server)
- Base URL predefinita:
http://127.0.0.1:30000/v1
/v1/models):
Proxy locali (LM Studio, vLLM, LiteLLM, ecc.)
Esempio (compatibile con OpenAI):- Per i provider personalizzati,
reasoning,input,cost,contextWindowemaxTokenssono facoltativi. Se omessi, OpenClaw usa come valori predefiniti:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Consigliato: imposta valori espliciti che corrispondano ai limiti del tuo proxy/modello.
- Per
api: "openai-completions"su endpoint non nativi (qualsiasibaseUrlnon vuota il cui host non siaapi.openai.com), OpenClaw forzacompat.supportsDeveloperRole: falseper evitare errori 400 del provider dovuti a ruolidevelopernon supportati. - I percorsi compatibili con OpenAI in stile proxy saltano anche la
modellazione nativa delle richieste solo-OpenAI: niente
service_tier, nientestoredi Responses, niente hint di prompt-cache, niente modellazione del payload di compatibilità reasoning OpenAI e nessun header di attribuzione nascosto di OpenClaw. - Se
baseUrlè vuota/omessa, OpenClaw mantiene il comportamento OpenAI predefinito (che risolve inapi.openai.com). - Per sicurezza, un valore esplicito
compat.supportsDeveloperRole: trueviene comunque sovrascritto sugli endpointopenai-completionsnon nativi.
Esempi CLI
Correlati
- Models — configurazione e alias dei modelli
- Model Failover — catene di fallback e comportamento di retry
- Configuration Reference — chiavi di configurazione del modello
- Providers — guide di configurazione per provider