Fournisseurs de modèles
Cette page couvre les fournisseurs de LLM/modèles (et non les canaux de chat comme WhatsApp/Telegram). Pour les règles de sélection des modèles, voir /concepts/models.Règles rapides
- Les références de modèle utilisent
provider/model(exemple :opencode/claude-opus-4-6). - Si vous définissez
agents.defaults.models, cela devient la liste d’autorisation. - Assistants CLI :
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Les règles d’exécution de repli, les sondes de cooldown et la persistance des surcharges de session sont documentées dans /concepts/model-failover.
models.providers.*.models[].contextWindowcorrespond aux métadonnées natives du modèle ;models.providers.*.models[].contextTokenscorrespond au plafond effectif d’exécution.- Les plugins de fournisseur peuvent injecter des catalogues de modèles via
registerProvider({ catalog }); OpenClaw fusionne cette sortie dansmodels.providersavant d’écriremodels.json. - Les manifests de fournisseur peuvent déclarer
providerAuthEnvVarsafin que les sondes génériques d’authentification par variables d’environnement n’aient pas besoin de charger le runtime du plugin. La carte restante des variables d’environnement cœur sert désormais uniquement aux fournisseurs cœur/non plugin et à quelques cas de priorité générique, comme l’onboarding Anthropic en priorité par clé API. - Les plugins de fournisseur peuvent aussi posséder le comportement d’exécution du fournisseur via
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, etonModelSelected. - Remarque : les
capabilitiesdu runtime fournisseur sont des métadonnées partagées d’exécuteur (famille de fournisseur, particularités de transcription/outillage, indications de transport/cache). Ce n’est pas la même chose que le modèle de capacité public qui décrit ce qu’un plugin enregistre (inférence de texte, parole, etc.).
Comportement de fournisseur possédé par le plugin
Les plugins de fournisseur peuvent désormais posséder la majeure partie de la logique spécifique au fournisseur tandis qu’OpenClaw conserve la boucle d’inférence générique. Répartition typique :auth[].run/auth[].runNonInteractive: le fournisseur possède les flux d’onboarding/connexion pouropenclaw onboard,openclaw models authet la configuration sans interfacewizard.setup/wizard.modelPicker: le fournisseur possède les libellés de choix d’authentification, les alias historiques, les indices de liste d’autorisation d’onboarding et les entrées de configuration dans les sélecteurs onboarding/modèlescatalog: le fournisseur apparaît dansmodels.providersnormalizeModelId: le fournisseur normalise les IDs de modèle historiques/preview avant la recherche ou la canonicalisationnormalizeTransport: le fournisseur normaliseapi/baseUrlde la famille de transport avant l’assemblage générique du modèle ; OpenClaw vérifie d’abord le fournisseur correspondant, puis les autres plugins de fournisseur capables de hooks jusqu’à ce que l’un modifie réellement le transportnormalizeConfig: le fournisseur normalise la configurationmodels.providers.<id>avant que l’exécution ne l’utilise ; OpenClaw vérifie d’abord le fournisseur correspondant, puis les autres plugins de fournisseur capables de hooks jusqu’à ce que l’un modifie réellement la configuration. Si aucun hook de fournisseur ne réécrit la configuration, les assistants intégrés de la famille Google normalisent toujours les entrées de fournisseur Google prises en charge.applyNativeStreamingUsageCompat: le fournisseur applique des réécritures de compatibilité d’usage streaming natives pilotées par point de terminaison pour les fournisseurs configurésresolveConfigApiKey: le fournisseur résout l’authentification par marqueur d’environnement pour les fournisseurs configurés sans forcer le chargement complet de l’authentification runtime.amazon-bedrockpossède aussi un résolveur intégré de marqueur d’environnement AWS ici, même si l’authentification runtime Bedrock utilise la chaîne par défaut du SDK AWS.resolveSyntheticAuth: le fournisseur peut exposer la disponibilité d’une authentification locale/auto-hébergée ou autre basée sur la configuration sans persister de secrets en clairshouldDeferSyntheticProfileAuth: le fournisseur peut marquer les espaces réservés de profil synthétique stockés comme ayant une priorité inférieure à l’authentification basée sur env/configresolveDynamicModel: le fournisseur accepte des IDs de modèle pas encore présents dans le catalogue statique localprepareDynamicModel: le fournisseur a besoin d’un rafraîchissement des métadonnées avant de retenter la résolution dynamiquenormalizeResolvedModel: le fournisseur a besoin de réécritures de transport ou de base URLcontributeResolvedModelCompat: le fournisseur apporte des indicateurs de compatibilité pour ses modèles fournisseur même lorsqu’ils arrivent via un autre transport compatiblecapabilities: le fournisseur publie les particularités transcription/outillage/famille de fournisseurnormalizeToolSchemas: le fournisseur nettoie les schémas d’outils avant que l’exécuteur embarqué ne les voieinspectToolSchemas: le fournisseur expose les avertissements de schéma spécifiques au transport après normalisationresolveReasoningOutputMode: le fournisseur choisit les contrats de sortie de raisonnement natifs ou balisésprepareExtraParams: le fournisseur définit par défaut ou normalise les paramètres de requête par modèlecreateStreamFn: le fournisseur remplace le chemin de streaming normal par un transport entièrement personnaliséwrapStreamFn: le fournisseur applique des wrappers de compatibilité en-têtes/corps/modèle à la requêteresolveTransportTurnState: le fournisseur fournit les en-têtes natifs par tour de transport ou des métadonnéesresolveWebSocketSessionPolicy: le fournisseur fournit des en-têtes de session WebSocket natifs ou une politique de cooldown de sessioncreateEmbeddingProvider: le fournisseur possède le comportement d’embedding mémoire lorsqu’il a plus de sens dans le plugin fournisseur que dans le sélecteur d’embedding cœurformatApiKey: le fournisseur formate les profils d’authentification stockés en chaîneapiKeyattendue par le transportrefreshOAuth: le fournisseur possède le rafraîchissement OAuth lorsque les rafraîchisseurs partagéspi-aine suffisent pasbuildAuthDoctorHint: le fournisseur ajoute des indications de réparation lorsque le rafraîchissement OAuth échouematchesContextOverflowError: le fournisseur reconnaît des erreurs de dépassement de fenêtre de contexte spécifiques au fournisseur que les heuristiques génériques manqueraientclassifyFailoverReason: le fournisseur mappe les erreurs brutes transport/API spécifiques au fournisseur vers des raisons de repli comme la limitation de débit ou la surchargeisCacheTtlEligible: le fournisseur décide quels IDs de modèle amont prennent en charge le TTL de cache de promptbuildMissingAuthMessage: le fournisseur remplace l’erreur générique du magasin d’authentification par une indication de récupération spécifique au fournisseursuppressBuiltInModel: le fournisseur masque les lignes amont obsolètes et peut renvoyer une erreur possédée par le fournisseur pour les échecs de résolution directeaugmentModelCatalog: le fournisseur ajoute des lignes synthétiques/finales au catalogue après la découverte et la fusion de configurationisBinaryThinking: le fournisseur possède l’UX de réflexion binaire activée/désactivéesupportsXHighThinking: le fournisseur activexhighpour les modèles sélectionnésresolveDefaultThinkingLevel: le fournisseur possède la politique/thinkpar défaut pour une famille de modèlesapplyConfigDefaults: le fournisseur applique des valeurs par défaut globales spécifiques au fournisseur lors de la matérialisation de la configuration selon le mode d’authentification, l’environnement ou la famille de modèlesisModernModelRef: le fournisseur possède la correspondance de modèle préféré live/smokeprepareRuntimeAuth: le fournisseur transforme un identifiant configuré en jeton runtime de courte duréeresolveUsageAuth: le fournisseur résout les identifiants d’usage/quota pour/usageet les surfaces liées d’état/rapportfetchUsageSnapshot: le fournisseur possède la récupération/l’analyse du point de terminaison d’usage tandis que le cœur conserve l’enveloppe de résumé et le formatageonModelSelected: le fournisseur exécute des effets secondaires après sélection, comme la télémétrie ou un suivi de session possédé par le fournisseur
anthropic: repli de compatibilité anticipée Claude 4.6, indications de réparation d’authentification, récupération du point de terminaison d’usage, métadonnées TTL de cache/famille de fournisseur, et valeurs par défaut globales de configuration tenant compte de l’authentificationamazon-bedrock: correspondance des dépassements de contexte et classification des raisons de repli pour les erreurs Bedrock spécifiques de throttling/non-prêt, ainsi que la famille partagéeanthropic-by-modelpour les garde-fous de politique de relecture réservés à Claude sur le trafic Anthropicanthropic-vertex: garde-fous de politique de relecture réservés à Claude sur le trafic de messages Anthropicopenrouter: IDs de modèle pass-through, wrappers de requête, indications de capacités fournisseur, assainissement des signatures de pensée Gemini sur le trafic Gemini proxy, injection de raisonnement proxy via la famille de fluxopenrouter-thinking, transfert des métadonnées de routage, et politique TTL de cachegithub-copilot: onboarding/device login, repli de compatibilité anticipée des modèles, indications de transcription Claude-thinking, échange de jeton runtime, et récupération du point de terminaison d’usageopenai: repli de compatibilité anticipée GPT-5.4, normalisation directe du transport OpenAI, indications d’authentification manquante tenant compte de Codex, suppression de Spark, lignes de catalogue synthétiques OpenAI/Codex, politique de réflexion/modèle live, normalisation des alias de jetons d’usage (input/outputet famillesprompt/completion), famille de flux partagéeopenai-responses-defaultspour les wrappers natifs OpenAI/Codex, et métadonnées de famille de fournisseurgoogleetgoogle-gemini-cli: repli de compatibilité anticipée Gemini 3.1, validation native de relecture Gemini, assainissement de relecture bootstrap, mode de sortie de raisonnement balisé, et correspondance de modèle moderne ; l’OAuth Gemini CLI possède aussi le formatage du jeton de profil d’authentification, l’analyse du jeton d’usage et la récupération du point de terminaison de quota pour les surfaces d’usagemoonshot: transport partagé, normalisation possédée par le plugin de la charge utile de réflexionkilocode: transport partagé, en-têtes de requête possédés par le plugin, normalisation de la charge utile de raisonnement, assainissement des signatures de pensée Gemini en proxy, et politique TTL de cachezai: repli de compatibilité anticipée GLM-5, valeurs par défauttool_stream, politique TTL de cache, politique de réflexion binaire/modèle live, et authentification usage + récupération de quota ; les IDs inconnusglm-5*sont synthétisés à partir du modèle intégréglm-4.7xai: normalisation native du transport Responses, réécritures d’alias/fastpour les variantes Grok fast,tool_streampar défaut, et nettoyage spécifique à xAI des schémas d’outils / charges utiles de raisonnementmistral: métadonnées de capacités possédées par le pluginopencodeetopencode-go: métadonnées de capacités possédées par le plugin ainsi qu’assainissement des signatures de pensée Gemini en proxybyteplus,cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,together,venice,vercel-ai-gatewayetvolcengine: catalogues possédés par le plugin uniquementqwen: catalogues de texte possédés par le plugin ainsi qu’enregistrements partagés de fournisseur media-understanding et video-generation pour ses surfaces multimodales ; la génération vidéo Qwen utilise les points de terminaison vidéo DashScope Standard avec les modèles Wan intégrés commewan2.6-t2vetwan2.7-r2vminimax: catalogues possédés par le plugin, sélection hybride de politique de relecture Anthropic/OpenAI, et logique d’authentification/instantané d’usagexiaomi: catalogues possédés par le plugin ainsi que logique d’authentification/instantané d’usage
openai possède désormais les deux IDs fournisseur : openai et
openai-codex.
Cela couvre les fournisseurs qui s’intègrent encore dans les transports normaux d’OpenClaw. Un fournisseur
qui nécessite un exécuteur de requête totalement personnalisé relève d’une surface d’extension
distincte et plus profonde.
Rotation des clés API
- Prend en charge une rotation générique des fournisseurs pour certains fournisseurs.
- Configurez plusieurs clés via :
OPENCLAW_LIVE_<PROVIDER>_KEY(surcharge live unique, priorité la plus élevée)<PROVIDER>_API_KEYS(liste séparée par virgules ou points-virgules)<PROVIDER>_API_KEY(clé principale)<PROVIDER>_API_KEY_*(liste numérotée, par ex.<PROVIDER>_API_KEY_1)
- Pour les fournisseurs Google,
GOOGLE_API_KEYest aussi inclus comme repli. - L’ordre de sélection des clés préserve la priorité et déduplique les valeurs.
- Les requêtes sont retentées avec la clé suivante uniquement en cas de réponses de limitation de débit (par
exemple
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded, ou des messages périodiques de limite d’usage). - Les échecs hors limitation de débit échouent immédiatement ; aucune rotation de clé n’est tentée.
- Lorsque toutes les clés candidates échouent, l’erreur finale est renvoyée depuis la dernière tentative.
Fournisseurs intégrés (catalogue pi-ai)
OpenClaw est livré avec le catalogue pi-ai. Ces fournisseurs ne nécessitent aucune configurationmodels.providers ; définissez simplement l’authentification et choisissez un modèle.
OpenAI
- Fournisseur :
openai - Authentification :
OPENAI_API_KEY - Rotation facultative :
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(surcharge unique) - Exemples de modèles :
openai/gpt-5.4,openai/gpt-5.4-pro - CLI :
openclaw onboard --auth-choice openai-api-key - Le transport par défaut est
auto(WebSocket d’abord, repli SSE) - Surcharge par modèle via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"ou"auto") - Le warm-up WebSocket OpenAI Responses est activé par défaut via
params.openaiWsWarmup(true/false) - Le traitement prioritaire OpenAI peut être activé via
agents.defaults.models["openai/<model>"].params.serviceTier /fastetparams.fastModemappent les requêtes directesopenai/*Responses versservice_tier=prioritysurapi.openai.com- Utilisez
params.serviceTierlorsque vous voulez un niveau explicite au lieu du basculement partagé/fast - Les en-têtes d’attribution OpenClaw cachés (
originator,version,User-Agent) s’appliquent uniquement au trafic OpenAI natif versapi.openai.com, pas aux proxys génériques compatibles OpenAI - Les routes OpenAI natives conservent aussi
storede Responses, les indications de cache de prompt et la mise en forme de charge utile de compatibilité de raisonnement OpenAI ; ce n’est pas le cas des routes proxy openai/gpt-5.3-codex-sparkest volontairement supprimé dans OpenClaw car l’API OpenAI live le rejette ; Spark est traité comme réservé à Codex
Anthropic
- Fournisseur :
anthropic - Authentification :
ANTHROPIC_API_KEY - Rotation facultative :
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(surcharge unique) - Exemple de modèle :
anthropic/claude-opus-4-6 - CLI :
openclaw onboard --auth-choice apiKeyouopenclaw onboard --auth-choice anthropic-cli - Les requêtes Anthropic publiques directes prennent en charge le basculement partagé
/fastetparams.fastMode, y compris le trafic authentifié par clé API et OAuth envoyé àapi.anthropic.com; OpenClaw mappe cela versservice_tierAnthropic (autovsstandard_only) - Remarque de facturation : la documentation publique Claude Code d’Anthropic inclut toujours l’utilisation directe du terminal Claude Code dans les limites des offres Claude. Séparément, Anthropic a informé les utilisateurs OpenClaw le 4 avril 2026 à 12:00 PM PT / 8:00 PM BST que le chemin de connexion Claude d’OpenClaw est compté comme une utilisation de harnais tiers et nécessite une Extra Usage facturée séparément de l’abonnement.
- Le setup-token Anthropic est de nouveau disponible comme chemin OpenClaw historique/manuel. Utilisez-le en gardant à l’esprit qu’Anthropic a indiqué aux utilisateurs OpenClaw que ce chemin nécessite Extra Usage.
OpenAI Code (Codex)
- Fournisseur :
openai-codex - Authentification : OAuth (ChatGPT)
- Exemple de modèle :
openai-codex/gpt-5.4 - CLI :
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex - Le transport par défaut est
auto(WebSocket d’abord, repli SSE) - Surcharge par modèle via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"ou"auto") params.serviceTierest aussi transféré sur les requêtes Responses Codex natives (chatgpt.com/backend-api)- Les en-têtes d’attribution OpenClaw cachés (
originator,version,User-Agent) ne sont attachés qu’au trafic Codex natif verschatgpt.com/backend-api, pas aux proxys génériques compatibles OpenAI - Partage le même basculement
/fastet la même configurationparams.fastModequeopenai/*direct ; OpenClaw mappe cela versservice_tier=priority openai-codex/gpt-5.3-codex-sparkreste disponible lorsque le catalogue OAuth Codex l’expose ; dépend des droitsopenai-codex/gpt-5.4conserve lecontextWindow = 1050000natif et uncontextTokens = 272000d’exécution par défaut ; surchargez le plafond runtime avecmodels.providers.openai-codex.models[].contextTokens- Remarque de politique : l’OAuth OpenAI Codex est explicitement pris en charge pour les outils/workflows externes comme OpenClaw.
Autres options hébergées de style abonnement
- Qwen Cloud : surface fournisseur Qwen Cloud plus mappage des points de terminaison Alibaba DashScope et Coding Plan
- MiniMax : accès OAuth MiniMax Coding Plan ou par clé API
- GLM Models : Z.AI Coding Plan ou points de terminaison API généraux
OpenCode
- Authentification :
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Fournisseur runtime Zen :
opencode - Fournisseur runtime Go :
opencode-go - Exemples de modèles :
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI :
openclaw onboard --auth-choice opencode-zenouopenclaw onboard --auth-choice opencode-go
Google Gemini (clé API)
- Fournisseur :
google - Authentification :
GEMINI_API_KEY - Rotation facultative :
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, repliGOOGLE_API_KEY, etOPENCLAW_LIVE_GEMINI_KEY(surcharge unique) - Exemples de modèles :
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilité : l’ancienne configuration OpenClaw utilisant
google/gemini-3.1-flash-previewest normalisée engoogle/gemini-3-flash-preview - CLI :
openclaw onboard --auth-choice gemini-api-key - Les exécutions Gemini directes acceptent aussi
agents.defaults.models["google/<model>"].params.cachedContent(ou l’anciencached_content) pour transférer un handlecachedContents/...natif au fournisseur ; les hits de cache Gemini remontent commecacheReadOpenClaw
Google Vertex et Gemini CLI
- Fournisseurs :
google-vertex,google-gemini-cli - Authentification : Vertex utilise gcloud ADC ; Gemini CLI utilise son propre flux OAuth
- Attention : l’OAuth Gemini CLI dans OpenClaw est une intégration non officielle. Certains utilisateurs ont signalé des restrictions de compte Google après utilisation de clients tiers. Consultez les conditions Google et utilisez un compte non critique si vous choisissez de continuer.
- L’OAuth Gemini CLI est fourni dans le plugin
googleintégré.- Installez d’abord Gemini CLI :
brew install gemini-cli- ou
npm install -g @google/gemini-cli
- Activer :
openclaw plugins enable google - Connexion :
openclaw models auth login --provider google-gemini-cli --set-default - Modèle par défaut :
google-gemini-cli/gemini-3.1-pro-preview - Remarque : vous ne collez pas d’identifiant client ni de secret dans
openclaw.json. Le flux de connexion CLI stocke les jetons dans les profils d’authentification sur l’hôte gateway. - Si les requêtes échouent après connexion, définissez
GOOGLE_CLOUD_PROJECTouGOOGLE_CLOUD_PROJECT_IDsur l’hôte gateway. - Les réponses JSON Gemini CLI sont analysées depuis
response; l’usage se replie surstats, avecstats.cachednormalisé encacheReadOpenClaw.
- Installez d’abord Gemini CLI :
Z.AI (GLM)
- Fournisseur :
zai - Authentification :
ZAI_API_KEY - Exemple de modèle :
zai/glm-5 - CLI :
openclaw onboard --auth-choice zai-api-key- Alias :
z.ai/*etz-ai/*sont normalisés enzai/* zai-api-keydétecte automatiquement le point de terminaison Z.AI correspondant ;zai-coding-global,zai-coding-cn,zai-globaletzai-cnforcent une surface spécifique
- Alias :
Vercel AI Gateway
- Fournisseur :
vercel-ai-gateway - Authentification :
AI_GATEWAY_API_KEY - Exemple de modèle :
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI :
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Fournisseur :
kilocode - Authentification :
KILOCODE_API_KEY - Exemple de modèle :
kilocode/kilo/auto - CLI :
openclaw onboard --auth-choice kilocode-api-key - Base URL :
https://api.kilo.ai/api/gateway/ - Le catalogue statique de repli fournit
kilocode/kilo/auto; la découverte livehttps://api.kilo.ai/api/gateway/modelspeut étendre davantage le catalogue runtime. - Le routage amont exact derrière
kilocode/kilo/autoappartient à Kilo Gateway, il n’est pas codé en dur dans OpenClaw.
Autres plugins de fournisseur intégrés
- OpenRouter :
openrouter(OPENROUTER_API_KEY) - Exemple de modèle :
openrouter/auto - OpenClaw applique les en-têtes d’attribution d’application documentés par OpenRouter uniquement lorsque
la requête cible réellement
openrouter.ai - Les marqueurs Anthropic
cache_controlspécifiques à OpenRouter sont également limités aux routes OpenRouter vérifiées, pas aux URL proxy arbitraires - OpenRouter reste sur le chemin de type proxy compatible OpenAI, donc la mise en forme de requête réservée à OpenAI native (
serviceTier,storede Responses, indications de cache de prompt, charges utiles de compatibilité de raisonnement OpenAI) n’est pas transférée - Les références OpenRouter basées sur Gemini conservent uniquement l’assainissement des signatures de pensée Gemini en proxy ; la validation native de relecture Gemini et les réécritures bootstrap restent désactivées
- Kilo Gateway :
kilocode(KILOCODE_API_KEY) - Exemple de modèle :
kilocode/kilo/auto - Les références Kilo basées sur Gemini conservent le même chemin d’assainissement
des signatures de pensée Gemini en proxy ;
kilocode/kilo/autoet les autres indices de raisonnement proxy non pris en charge ignorent l’injection de raisonnement proxy - MiniMax :
minimax(clé API) etminimax-portal(OAuth) - Authentification :
MINIMAX_API_KEYpourminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYpourminimax-portal - Exemple de modèle :
minimax/MiniMax-M2.7ouminimax-portal/MiniMax-M2.7 - L’onboarding/la configuration par clé API MiniMax écrit des définitions explicites du modèle M2.7 avec
input: ["text", "image"]; le catalogue intégré du fournisseur garde les références de chat en texte seul jusqu’à la matérialisation de cette configuration fournisseur - Moonshot :
moonshot(MOONSHOT_API_KEY) - Exemple de modèle :
moonshot/kimi-k2.5 - Kimi Coding :
kimi(KIMI_API_KEYouKIMICODE_API_KEY) - Exemple de modèle :
kimi/kimi-code - Qianfan :
qianfan(QIANFAN_API_KEY) - Exemple de modèle :
qianfan/deepseek-v3.2 - Qwen Cloud :
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYouDASHSCOPE_API_KEY) - Exemple de modèle :
qwen/qwen3.5-plus - NVIDIA :
nvidia(NVIDIA_API_KEY) - Exemple de modèle :
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun :
stepfun/stepfun-plan(STEPFUN_API_KEY) - Exemples de modèles :
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together :
together(TOGETHER_API_KEY) - Exemple de modèle :
together/moonshotai/Kimi-K2.5 - Venice :
venice(VENICE_API_KEY) - Xiaomi :
xiaomi(XIAOMI_API_KEY) - Exemple de modèle :
xiaomi/mimo-v2-flash - Vercel AI Gateway :
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference :
huggingface(HUGGINGFACE_HUB_TOKENouHF_TOKEN) - Cloudflare AI Gateway :
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine :
volcengine(VOLCANO_ENGINE_API_KEY) - Exemple de modèle :
volcengine-plan/ark-code-latest - BytePlus :
byteplus(BYTEPLUS_API_KEY) - Exemple de modèle :
byteplus-plan/ark-code-latest - xAI :
xai(XAI_API_KEY)- Les requêtes xAI natives intégrées utilisent le chemin xAI Responses
/fastouparams.fastMode: trueréécritgrok-3,grok-3-mini,grok-4etgrok-4-0709vers leurs variantes*-fasttool_streamest activé par défaut ; définissezagents.defaults.models["xai/<model>"].params.tool_streamsurfalsepour le désactiver
- Mistral :
mistral(MISTRAL_API_KEY) - Exemple de modèle :
mistral/mistral-large-latest - CLI :
openclaw onboard --auth-choice mistral-api-key - Groq :
groq(GROQ_API_KEY) - Cerebras :
cerebras(CEREBRAS_API_KEY)- Les modèles GLM sur Cerebras utilisent les IDs
zai-glm-4.7etzai-glm-4.6. - Base URL compatible OpenAI :
https://api.cerebras.ai/v1.
- Les modèles GLM sur Cerebras utilisent les IDs
- GitHub Copilot :
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Exemple de modèle Hugging Face Inference :
huggingface/deepseek-ai/DeepSeek-R1; CLI :openclaw onboard --auth-choice huggingface-api-key. Voir Hugging Face (Inference).
Fournisseurs via models.providers (personnalisé/base URL)
Utilisez models.providers (ou models.json) pour ajouter des fournisseurs personnalisés ou des proxys
compatibles OpenAI/Anthropic.
Beaucoup des plugins de fournisseur intégrés ci-dessous publient déjà un catalogue par défaut.
Utilisez des entrées explicites models.providers.<id> uniquement lorsque vous voulez surcharger la
base URL, les en-têtes ou la liste de modèles par défaut.
Moonshot AI (Kimi)
Moonshot est fourni comme plugin de fournisseur intégré. Utilisez le fournisseur intégré par défaut, et ajoutez une entrée explicitemodels.providers.moonshot uniquement lorsque vous
devez surcharger la base URL ou les métadonnées de modèle :
- Fournisseur :
moonshot - Authentification :
MOONSHOT_API_KEY - Exemple de modèle :
moonshot/kimi-k2.5 - CLI :
openclaw onboard --auth-choice moonshot-api-keyouopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding utilise le point de terminaison compatible Anthropic de Moonshot AI :- Fournisseur :
kimi - Authentification :
KIMI_API_KEY - Exemple de modèle :
kimi/kimi-code
kimi/k2p5 reste accepté comme ID de modèle de compatibilité.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) donne accès à Doubao et à d’autres modèles en Chine.- Fournisseur :
volcengine(coding :volcengine-plan) - Authentification :
VOLCANO_ENGINE_API_KEY - Exemple de modèle :
volcengine-plan/ark-code-latest - CLI :
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
est enregistré en même temps.
Dans les sélecteurs onboarding/configuration de modèles, le choix d’authentification Volcengine privilégie à la fois
les lignes volcengine/* et volcengine-plan/*. Si ces modèles ne sont pas encore chargés,
OpenClaw se replie sur le catalogue non filtré au lieu d’afficher un sélecteur vide limité au fournisseur.
Modèles disponibles :
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan) :
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK donne accès aux mêmes modèles que Volcano Engine pour les utilisateurs internationaux.- Fournisseur :
byteplus(coding :byteplus-plan) - Authentification :
BYTEPLUS_API_KEY - Exemple de modèle :
byteplus-plan/ark-code-latest - CLI :
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
est enregistré en même temps.
Dans les sélecteurs onboarding/configuration de modèles, le choix d’authentification BytePlus privilégie à la fois
les lignes byteplus/* et byteplus-plan/*. Si ces modèles ne sont pas encore chargés,
OpenClaw se replie sur le catalogue non filtré au lieu d’afficher un sélecteur vide limité au fournisseur.
Modèles disponibles :
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan) :
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic fournit des modèles compatibles Anthropic derrière le fournisseursynthetic :
- Fournisseur :
synthetic - Authentification :
SYNTHETIC_API_KEY - Exemple de modèle :
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI :
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax se configure viamodels.providers car il utilise des points de terminaison personnalisés :
- OAuth MiniMax (Global) :
--auth-choice minimax-global-oauth - OAuth MiniMax (CN) :
--auth-choice minimax-cn-oauth - Clé API MiniMax (Global) :
--auth-choice minimax-global-api - Clé API MiniMax (CN) :
--auth-choice minimax-cn-api - Authentification :
MINIMAX_API_KEYpourminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYpourminimax-portal
/fast on réécrit
MiniMax-M2.7 en MiniMax-M2.7-highspeed.
Répartition des capacités possédées par le plugin :
- Les valeurs par défaut texte/chat restent sur
minimax/MiniMax-M2.7 - La génération d’image est
minimax/image-01ouminimax-portal/image-01 - La compréhension d’image est
MiniMax-VL-01, possédée par le plugin sur les deux chemins d’authentification MiniMax - La recherche web reste sur l’ID fournisseur
minimax
Ollama
Ollama est fourni comme plugin de fournisseur intégré et utilise l’API native d’Ollama :- Fournisseur :
ollama - Authentification : aucune requise (serveur local)
- Exemple de modèle :
ollama/llama3.3 - Installation : https://ollama.com/download
http://127.0.0.1:11434 lorsque vous l’activez via
OLLAMA_API_KEY, et le plugin de fournisseur intégré ajoute directement Ollama à
openclaw onboard et au sélecteur de modèles. Voir /providers/ollama
pour l’onboarding, le mode cloud/local et la configuration personnalisée.
vLLM
vLLM est fourni comme plugin de fournisseur intégré pour les serveurs locaux/auto-hébergés compatibles OpenAI :- Fournisseur :
vllm - Authentification : facultative (dépend de votre serveur)
- Base URL par défaut :
http://127.0.0.1:8000/v1
/v1/models) :
SGLang
SGLang est fourni comme plugin de fournisseur intégré pour les serveurs rapides auto-hébergés compatibles OpenAI :- Fournisseur :
sglang - Authentification : facultative (dépend de votre serveur)
- Base URL par défaut :
http://127.0.0.1:30000/v1
/v1/models) :
Proxys locaux (LM Studio, vLLM, LiteLLM, etc.)
Exemple (compatible OpenAI) :- Pour les fournisseurs personnalisés,
reasoning,input,cost,contextWindowetmaxTokenssont facultatifs. Lorsqu’ils sont omis, OpenClaw utilise par défaut :reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recommandé : définissez des valeurs explicites correspondant aux limites de votre proxy/modèle.
- Pour
api: "openai-completions"sur des points de terminaison non natifs (toutebaseUrlnon vide dont l’hôte n’est pasapi.openai.com), OpenClaw forcecompat.supportsDeveloperRole: falseafin d’éviter les erreurs 400 du fournisseur sur les rôlesdevelopernon pris en charge. - Les routes de type proxy compatibles OpenAI ignorent également la mise en forme de requête réservée à OpenAI native :
pas de
service_tier, pas destorede Responses, pas d’indications de cache de prompt, pas de mise en forme de charge utile de compatibilité de raisonnement OpenAI, ni d’en-têtes d’attribution OpenClaw cachés. - Si
baseUrlest vide/omise, OpenClaw conserve le comportement OpenAI par défaut (qui se résout versapi.openai.com). - Par sécurité, une valeur explicite
compat.supportsDeveloperRole: trueest quand même surchargée sur les points de terminaisonopenai-completionsnon natifs.
Exemples CLI
Voir aussi
- Models — configuration des modèles et alias
- Model Failover — chaînes de repli et comportement de nouvelle tentative
- Configuration Reference — clés de configuration des modèles
- Providers — guides de configuration par fournisseur