Fournisseurs de modèles
Cette page couvre les fournisseurs de LLM/modèles (et non les canaux de discussion comme WhatsApp/Telegram). Pour les règles de sélection des modèles, voir /concepts/models.Règles rapides
- Les références de modèle utilisent
provider/model(exemple :opencode/claude-opus-4-6). - Si vous définissez
agents.defaults.models, cela devient la liste d’autorisation. - Assistants CLI :
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Les règles d’exécution de repli, les sondes de refroidissement et la persistance des remplacements de session sont documentées dans /concepts/model-failover.
models.providers.*.models[].contextWindowest une métadonnée native du modèle ;models.providers.*.models[].contextTokensest le plafond d’exécution effectif.- Les plugins de fournisseur peuvent injecter des catalogues de modèles via
registerProvider({ catalog }); OpenClaw fusionne cette sortie dansmodels.providersavant d’écriremodels.json. - Les manifestes de fournisseur peuvent déclarer
providerAuthEnvVarsetproviderAuthAliasesafin que les sondes génériques d’authentification basées sur l’environnement et les variantes de fournisseur n’aient pas besoin de charger l’exécution du plugin. La carte restante des variables d’environnement du cœur sert désormais seulement aux fournisseurs non liés à des plugins/du cœur et à quelques cas génériques de priorité tels que l’intégration Anthropic avec priorité à la clé API. - Les plugins de fournisseur peuvent aussi prendre en charge le comportement d’exécution du fournisseur via
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, andonModelSelected. - Remarque : les
capabilitiesd’exécution du fournisseur sont des métadonnées partagées du runner (famille de fournisseurs, particularités de transcription/outillage, indications de transport/cache). Elles ne sont pas identiques au modèle de capacités public qui décrit ce qu’un plugin enregistre (inférence de texte, parole, etc.). - Le fournisseur
codexinclus est associé au harnais d’agent Codex inclus. Utilisezcodex/gpt-*lorsque vous voulez une connexion gérée par Codex, la découverte des modèles, la reprise native des threads et l’exécution sur serveur d’application. Les références simplesopenai/gpt-*continuent d’utiliser le fournisseur OpenAI et le transport de fournisseur OpenClaw normal. Les déploiements Codex uniquement peuvent désactiver le repli automatique vers PI avecagents.defaults.embeddedHarness.fallback: "none"; voir Codex Harness.
Comportement de fournisseur géré par un plugin
Les plugins de fournisseur peuvent désormais prendre en charge la majorité de la logique spécifique au fournisseur, tandis qu’OpenClaw conserve la boucle d’inférence générique. Répartition typique :auth[].run/auth[].runNonInteractive: le fournisseur gère les flux d’intégration/connexion pouropenclaw onboard,openclaw models authet la configuration sans interfacewizard.setup/wizard.modelPicker: le fournisseur gère les libellés de choix d’authentification, les alias hérités, les indications de liste d’autorisation pour l’intégration et les entrées de configuration dans les sélecteurs d’intégration/de modèlescatalog: le fournisseur apparaît dansmodels.providersnormalizeModelId: le fournisseur normalise les identifiants de modèle hérités/de préversion avant la recherche ou la canonicalisationnormalizeTransport: le fournisseur normaliseapi/baseUrlde la famille de transport avant l’assemblage générique du modèle ; OpenClaw vérifie d’abord le fournisseur correspondant, puis les autres plugins de fournisseur compatibles avec les hooks jusqu’à ce que l’un d’eux modifie réellement le transportnormalizeConfig: le fournisseur normalise la configurationmodels.providers.<id>avant son utilisation par l’exécution ; OpenClaw vérifie d’abord le fournisseur correspondant, puis les autres plugins de fournisseur compatibles avec les hooks jusqu’à ce que l’un d’eux modifie réellement la configuration. Si aucun hook de fournisseur ne réécrit la configuration, les assistants intégrés de la famille Google normalisent encore les entrées de fournisseur Google prises en charge.applyNativeStreamingUsageCompat: le fournisseur applique des réécritures de compatibilité d’utilisation en streaming natif pilotées par le point de terminaison pour les fournisseurs de configurationresolveConfigApiKey: le fournisseur résout l’authentification par marqueur d’environnement pour les fournisseurs de configuration sans forcer le chargement complet de l’authentification d’exécution.amazon-bedrockdispose aussi ici d’un résolveur intégré de marqueur d’environnement AWS, même si l’authentification d’exécution Bedrock utilise la chaîne par défaut du SDK AWS.resolveSyntheticAuth: le fournisseur peut exposer la disponibilité d’une authentification locale/autohébergée ou autre basée sur la configuration, sans persister des secrets en clairshouldDeferSyntheticProfileAuth: le fournisseur peut marquer les espaces réservés de profil synthétique stockés comme ayant une priorité inférieure à l’authentification basée sur l’environnement/la configurationresolveDynamicModel: le fournisseur accepte des identifiants de modèle qui ne sont pas encore présents dans le catalogue statique localprepareDynamicModel: le fournisseur a besoin d’une actualisation des métadonnées avant de réessayer la résolution dynamiquenormalizeResolvedModel: le fournisseur a besoin de réécritures du transport ou de l’URL de basecontributeResolvedModelCompat: le fournisseur apporte des drapeaux de compatibilité pour ses modèles fournisseur même lorsqu’ils arrivent via un autre transport compatiblecapabilities: le fournisseur publie les particularités de transcription/outillage/famille de fournisseurnormalizeToolSchemas: le fournisseur nettoie les schémas d’outil avant que le runner intégré ne les voieinspectToolSchemas: le fournisseur expose des avertissements de schéma spécifiques au transport après normalisationresolveReasoningOutputMode: le fournisseur choisit entre des contrats de sortie de raisonnement natifs ou balisésprepareExtraParams: le fournisseur définit par défaut ou normalise les paramètres de requête par modèlecreateStreamFn: le fournisseur remplace le chemin de streaming normal par un transport entièrement personnaliséwrapStreamFn: le fournisseur applique des wrappers de compatibilité pour les en-têtes/corps/modèles de requêteresolveTransportTurnState: le fournisseur fournit des en-têtes ou métadonnées de transport natives par tourresolveWebSocketSessionPolicy: le fournisseur fournit des en-têtes de session WebSocket natives ou une politique de refroidissement de sessioncreateEmbeddingProvider: le fournisseur gère le comportement d’embedding mémoire lorsqu’il relève du plugin de fournisseur plutôt que du commutateur d’embedding du cœurformatApiKey: le fournisseur formate les profils d’authentification stockés dans la chaîneapiKeyattendue par le transport à l’exécutionrefreshOAuth: le fournisseur gère l’actualisation OAuth lorsque les actualisateurs partagéspi-aine suffisent pasbuildAuthDoctorHint: le fournisseur ajoute des indications de réparation lorsque l’actualisation OAuth échouematchesContextOverflowError: le fournisseur reconnaît les erreurs de dépassement de fenêtre de contexte spécifiques au fournisseur que les heuristiques génériques ne détecteraient pasclassifyFailoverReason: le fournisseur mappe les erreurs brutes spécifiques au fournisseur, côté transport/API, vers des motifs de basculement comme la limitation de débit ou la surchargeisCacheTtlEligible: le fournisseur détermine quels identifiants de modèle amont prennent en charge un TTL de cache d’invitebuildMissingAuthMessage: le fournisseur remplace l’erreur générique du magasin d’authentification par une indication de récupération spécifique au fournisseursuppressBuiltInModel: le fournisseur masque les lignes amont obsolètes et peut renvoyer une erreur gérée par le fournisseur pour les échecs de résolution directeaugmentModelCatalog: le fournisseur ajoute des lignes de catalogue synthétiques/finales après la découverte et la fusion de configurationisBinaryThinking: le fournisseur gère l’expérience utilisateur de réflexion binaire activée/désactivéesupportsXHighThinking: le fournisseur activexhighpour certains modèles sélectionnésresolveDefaultThinkingLevel: le fournisseur gère la politique/thinkpar défaut pour une famille de modèlesapplyConfigDefaults: le fournisseur applique des valeurs par défaut globales spécifiques au fournisseur pendant la matérialisation de la configuration selon le mode d’authentification, l’environnement ou la famille de modèlesisModernModelRef: le fournisseur gère la correspondance des modèles préférés en direct/en test de fuméeprepareRuntimeAuth: le fournisseur transforme un identifiant configuré en un jeton d’exécution à courte durée de vieresolveUsageAuth: le fournisseur résout les identifiants d’utilisation/quota pour/usageet les surfaces associées d’état/de rapportfetchUsageSnapshot: le fournisseur gère la récupération/l’analyse du point de terminaison d’utilisation tandis que le cœur conserve la structure du résumé et le formatageonModelSelected: le fournisseur exécute des effets secondaires après la sélection du modèle, comme la télémétrie ou la tenue de session gérée par le fournisseur
anthropic: repli de compatibilité anticipée pour Claude 4.6, indications de réparation d’authentification, récupération du point de terminaison d’utilisation, métadonnées TTL de cache/famille de fournisseur, et valeurs par défaut globales de configuration tenant compte de l’authentificationamazon-bedrock: correspondance du dépassement de contexte gérée par le fournisseur et classification des motifs de basculement pour les erreurs spécifiques à Bedrock de limitation/pas prêt, plus la famille partagée de rejeuanthropic-by-modelpour les garde-fous de politique de rejeu réservés à Claude sur le trafic Anthropicanthropic-vertex: garde-fous de politique de rejeu réservés à Claude sur le trafic de messages Anthropicopenrouter: identifiants de modèle en transmission directe, wrappers de requête, indications de capacités du fournisseur, assainissement de la signature de pensée Gemini sur le trafic Gemini proxifié, injection du raisonnement du proxy via la famille de fluxopenrouter-thinking, transfert des métadonnées de routage et politique TTL de cachegithub-copilot: intégration/connexion par appareil, repli de modèle à compatibilité anticipée, indications de transcription Claude-thinking, échange de jeton d’exécution et récupération du point de terminaison d’utilisationopenai: repli de compatibilité anticipée pour GPT-5.4, normalisation directe du transport OpenAI, indications d’authentification manquante tenant compte de Codex, suppression de Spark, lignes de catalogue synthétiques OpenAI/Codex, politique des modèles de réflexion/en direct, normalisation des alias de jeton d’utilisation (input/outputet famillesprompt/completion), la famille de flux partagéeopenai-responses-defaultspour les wrappers natifs OpenAI/Codex, métadonnées de famille de fournisseur, enregistrement du fournisseur intégré de génération d’images pourgpt-image-1, et enregistrement du fournisseur intégré de génération vidéo poursora-2googleetgoogle-gemini-cli: repli de compatibilité anticipée pour Gemini 3.1, validation native du rejeu Gemini, assainissement du rejeu d’amorçage, mode de sortie du raisonnement balisé, correspondance des modèles modernes, enregistrement du fournisseur intégré de génération d’images pour les modèles Gemini image-preview, et enregistrement du fournisseur intégré de génération vidéo pour les modèles Veo ; l’OAuth Gemini CLI gère aussi le formatage du jeton de profil d’authentification, l’analyse des jetons d’utilisation et la récupération du point de terminaison de quota pour les surfaces d’utilisationmoonshot: transport partagé, normalisation de la charge utile de réflexion gérée par le pluginkilocode: transport partagé, en-têtes de requête gérés par le plugin, normalisation de la charge utile de raisonnement, assainissement de la signature de pensée Gemini proxifiée et politique TTL de cachezai: repli de compatibilité anticipée pour GLM-5, valeurs par défauttool_stream, politique TTL de cache, politique de réflexion binaire/modèle en direct, et authentification d’utilisation + récupération de quota ; les identifiants inconnusglm-5*sont synthétisés à partir du modèle intégréglm-4.7xai: normalisation native du transport Responses, réécritures d’alias/fastpour les variantes rapides de Grok,tool_streampar défaut, nettoyage spécifique à xAI des schémas d’outil / charges utiles de raisonnement, et enregistrement du fournisseur intégré de génération vidéo pourgrok-imagine-videomistral: métadonnées de capacités gérées par le pluginopencodeetopencode-go: métadonnées de capacités gérées par le plugin plus assainissement de la signature de pensée Gemini proxifiéealibaba: catalogue de génération vidéo géré par le plugin pour les références directes de modèles Wan telles quealibaba/wan2.6-t2vbyteplus: catalogues gérés par le plugin plus enregistrement du fournisseur intégré de génération vidéo pour les modèles Seedance texte-vers-vidéo/image-vers-vidéofal: enregistrement intégré du fournisseur de génération vidéo pour des modèles vidéo tiers hébergés, enregistrement du fournisseur de génération d’images pour les modèles d’image FLUX, plus enregistrement intégré du fournisseur de génération vidéo pour des modèles vidéo tiers hébergéscloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,venice,vercel-ai-gatewayetvolcengine: catalogues gérés par le plugin uniquementqwen: catalogues gérés par le plugin pour les modèles texte plus enregistrements partagés de fournisseurs de compréhension multimodale et de génération vidéo pour ses surfaces multimodales ; la génération vidéo Qwen utilise les points de terminaison vidéo Standard DashScope avec des modèles Wan intégrés tels quewan2.6-t2vetwan2.7-r2vrunway: enregistrement du fournisseur de génération vidéo géré par le plugin pour des modèles natifs basés sur des tâches Runway tels quegen4.5minimax: catalogues gérés par le plugin, enregistrement intégré du fournisseur de génération vidéo pour les modèles vidéo Hailuo, enregistrement intégré du fournisseur de génération d’images pourimage-01, sélection hybride de politique de rejeu Anthropic/OpenAI, et logique d’authentification/cliché d’utilisationtogether: catalogues gérés par le plugin plus enregistrement intégré du fournisseur de génération vidéo pour les modèles vidéo Wanxiaomi: catalogues gérés par le plugin plus logique d’authentification/cliché d’utilisation
openai intégré gère désormais les deux identifiants de fournisseur :
openai et openai-codex.
Cela couvre les fournisseurs qui s’intègrent encore dans les transports normaux d’OpenClaw. Un fournisseur
qui nécessite un exécuteur de requêtes totalement personnalisé relève d’une surface d’extension distincte et plus avancée.
Rotation des clés API
- Prend en charge la rotation générique des fournisseurs pour certains fournisseurs sélectionnés.
- Configurez plusieurs clés via :
OPENCLAW_LIVE_<PROVIDER>_KEY(remplacement direct unique, priorité la plus élevée)<PROVIDER>_API_KEYS(liste séparée par des virgules ou des points-virgules)<PROVIDER>_API_KEY(clé principale)<PROVIDER>_API_KEY_*(liste numérotée, par exemple<PROVIDER>_API_KEY_1)
- Pour les fournisseurs Google,
GOOGLE_API_KEYest aussi inclus comme repli. - L’ordre de sélection des clés préserve la priorité et déduplique les valeurs.
- Les requêtes ne sont retentées avec la clé suivante qu’en cas de réponses de limitation de débit (par
exemple
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded, ou des messages périodiques de limite d’utilisation). - Les échecs non liés à la limitation de débit échouent immédiatement ; aucune rotation de clé n’est tentée.
- Lorsque toutes les clés candidates échouent, l’erreur finale renvoyée est celle de la dernière tentative.
Fournisseurs intégrés (catalogue pi-ai)
OpenClaw est livré avec le catalogue pi‑ai. Ces fournisseurs ne nécessitent aucune configurationmodels.providers ; définissez simplement l’authentification et choisissez un modèle.
OpenAI
- Fournisseur :
openai - Authentification :
OPENAI_API_KEY - Rotation facultative :
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(remplacement unique) - Exemples de modèles :
openai/gpt-5.4,openai/gpt-5.4-pro - CLI :
openclaw onboard --auth-choice openai-api-key - Le transport par défaut est
auto(WebSocket d’abord, repli SSE) - Remplacez par modèle via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"ou"auto") - Le préchauffage WebSocket OpenAI Responses est activé par défaut via
params.openaiWsWarmup(true/false) - Le traitement prioritaire OpenAI peut être activé via
agents.defaults.models["openai/<model>"].params.serviceTier /fastetparams.fastModemappent les requêtes Responses directesopenai/*versservice_tier=prioritysurapi.openai.com- Utilisez
params.serviceTierlorsque vous voulez un niveau explicite au lieu du basculement partagé/fast - Les en-têtes d’attribution OpenClaw cachés (
originator,version,User-Agent) s’appliquent uniquement au trafic OpenAI natif versapi.openai.com, pas aux proxys génériques compatibles OpenAI - Les routes OpenAI natives conservent aussi
storede Responses, les indications de cache d’invite, et le façonnage de charge utile de compatibilité de raisonnement OpenAI ; les routes proxy ne le font pas openai/gpt-5.3-codex-sparkest intentionnellement supprimé dans OpenClaw, car l’API OpenAI en direct le rejette ; Spark est traité comme réservé à Codex
Anthropic
- Fournisseur :
anthropic - Authentification :
ANTHROPIC_API_KEY - Rotation facultative :
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(remplacement unique) - Exemple de modèle :
anthropic/claude-opus-4-6 - CLI :
openclaw onboard --auth-choice apiKey - Les requêtes Anthropic publiques directes prennent aussi en charge le basculement partagé
/fastetparams.fastMode, y compris le trafic authentifié par clé API et OAuth envoyé àapi.anthropic.com; OpenClaw le mappe vers Anthropicservice_tier(autovsstandard_only) - Remarque Anthropic : le personnel Anthropic nous a indiqué que l’utilisation de Claude CLI de type OpenClaw est de nouveau autorisée, donc OpenClaw considère la réutilisation de Claude CLI et l’usage de
claude -pcomme autorisés pour cette intégration, sauf si Anthropic publie une nouvelle politique. - Le jeton de configuration Anthropic reste disponible comme chemin de jeton OpenClaw pris en charge, mais OpenClaw préfère désormais la réutilisation de Claude CLI et
claude -plorsqu’ils sont disponibles.
OpenAI Code (Codex)
- Fournisseur :
openai-codex - Authentification : OAuth (ChatGPT)
- Exemple de modèle :
openai-codex/gpt-5.4 - CLI :
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex - Le transport par défaut est
auto(WebSocket d’abord, repli SSE) - Remplacez par modèle via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"ou"auto") params.serviceTierest aussi transmis sur les requêtes Responses Codex natives (chatgpt.com/backend-api)- Les en-têtes d’attribution OpenClaw cachés (
originator,version,User-Agent) sont joints uniquement au trafic Codex natif verschatgpt.com/backend-api, pas aux proxys génériques compatibles OpenAI - Partage le même basculement
/fastet la même configurationparams.fastModequeopenai/*direct ; OpenClaw les mappe versservice_tier=priority openai-codex/gpt-5.3-codex-sparkreste disponible lorsque le catalogue OAuth Codex l’expose ; dépend des droitsopenai-codex/gpt-5.4conserve lecontextWindow = 1050000natif et uncontextTokens = 272000d’exécution par défaut ; remplacez le plafond d’exécution avecmodels.providers.openai-codex.models[].contextTokens- Note de politique : l’OAuth OpenAI Codex est explicitement pris en charge pour les outils/flux de travail externes comme OpenClaw.
Autres options hébergées de type abonnement
- Qwen Cloud : surface de fournisseur Qwen Cloud plus mappage des points de terminaison Alibaba DashScope et Coding Plan
- MiniMax : accès OAuth ou par clé API au plan Coding Plan de MiniMax
- GLM Models : plan Coding Plan Z.AI ou points de terminaison d’API généraux
OpenCode
- Authentification :
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Fournisseur d’exécution Zen :
opencode - Fournisseur d’exécution Go :
opencode-go - Exemples de modèles :
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI :
openclaw onboard --auth-choice opencode-zenouopenclaw onboard --auth-choice opencode-go
Google Gemini (clé API)
- Fournisseur :
google - Authentification :
GEMINI_API_KEY - Rotation facultative :
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, repliGOOGLE_API_KEY, etOPENCLAW_LIVE_GEMINI_KEY(remplacement unique) - Exemples de modèles :
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilité : la configuration OpenClaw héritée utilisant
google/gemini-3.1-flash-previewest normalisée engoogle/gemini-3-flash-preview - CLI :
openclaw onboard --auth-choice gemini-api-key - Les exécutions Gemini directes acceptent aussi
agents.defaults.models["google/<model>"].params.cachedContent(ou l’anciencached_content) pour transmettre un handle natif du fournisseurcachedContents/...; les accès au cache Gemini apparaissent commecacheReaddans OpenClaw
Google Vertex et Gemini CLI
- Fournisseurs :
google-vertex,google-gemini-cli - Authentification : Vertex utilise gcloud ADC ; Gemini CLI utilise son flux OAuth
- Attention : l’OAuth Gemini CLI dans OpenClaw est une intégration non officielle. Certains utilisateurs ont signalé des restrictions sur leur compte Google après avoir utilisé des clients tiers. Consultez les conditions de Google et utilisez un compte non critique si vous choisissez de continuer.
- L’OAuth Gemini CLI est livré dans le plugin
googleintégré.- Installez d’abord Gemini CLI :
brew install gemini-cli- ou
npm install -g @google/gemini-cli
- Activez-le :
openclaw plugins enable google - Connectez-vous :
openclaw models auth login --provider google-gemini-cli --set-default - Modèle par défaut :
google-gemini-cli/gemini-3-flash-preview - Remarque : vous ne collez pas d’identifiant client ni de secret dans
openclaw.json. Le flux de connexion CLI stocke les jetons dans des profils d’authentification sur l’hôte de la passerelle. - Si les requêtes échouent après la connexion, définissez
GOOGLE_CLOUD_PROJECTouGOOGLE_CLOUD_PROJECT_IDsur l’hôte de la passerelle. - Les réponses JSON de Gemini CLI sont analysées depuis
response; l’utilisation se replie surstats, avecstats.cachednormalisé encacheReadOpenClaw.
- Installez d’abord Gemini CLI :
Z.AI (GLM)
- Fournisseur :
zai - Authentification :
ZAI_API_KEY - Exemple de modèle :
zai/glm-5.1 - CLI :
openclaw onboard --auth-choice zai-api-key- Alias :
z.ai/*etz-ai/*sont normalisés enzai/* zai-api-keydétecte automatiquement le point de terminaison Z.AI correspondant ;zai-coding-global,zai-coding-cn,zai-globaletzai-cnforcent une surface spécifique
- Alias :
Vercel AI Gateway
- Fournisseur :
vercel-ai-gateway - Authentification :
AI_GATEWAY_API_KEY - Exemple de modèle :
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI :
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Fournisseur :
kilocode - Authentification :
KILOCODE_API_KEY - Exemple de modèle :
kilocode/kilo/auto - CLI :
openclaw onboard --auth-choice kilocode-api-key - URL de base :
https://api.kilo.ai/api/gateway/ - Le catalogue statique de repli inclut
kilocode/kilo/auto; la découverte en direct viahttps://api.kilo.ai/api/gateway/modelspeut élargir davantage le catalogue d’exécution. - Le routage amont exact derrière
kilocode/kilo/autoest géré par Kilo Gateway, et non codé en dur dans OpenClaw.
Autres plugins de fournisseur intégrés
- OpenRouter :
openrouter(OPENROUTER_API_KEY) - Exemple de modèle :
openrouter/auto - OpenClaw applique les en-têtes d’attribution d’application documentés par OpenRouter uniquement lorsque
la requête cible réellement
openrouter.ai - Les marqueurs
cache_controlspécifiques à Anthropic d’OpenRouter sont eux aussi limités aux routes OpenRouter vérifiées, et non à des URL proxy arbitraires - OpenRouter reste sur le chemin compatible OpenAI de type proxy, donc
le façonnage natif des requêtes réservé à OpenAI (
serviceTier,storede Responses, indications de cache d’invite, charges utiles de compatibilité de raisonnement OpenAI) n’est pas transmis - Les références OpenRouter adossées à Gemini conservent uniquement l’assainissement de signature de pensée Gemini côté proxy ; la validation native du rejeu Gemini et les réécritures d’amorçage restent désactivées
- Kilo Gateway :
kilocode(KILOCODE_API_KEY) - Exemple de modèle :
kilocode/kilo/auto - Les références Kilo adossées à Gemini conservent le même chemin
d’assainissement de signature de pensée Gemini côté proxy ;
kilocode/kilo/autoet les autres indications non prises en charge pour le raisonnement via proxy ignorent l’injection du raisonnement proxy - MiniMax :
minimax(clé API) etminimax-portal(OAuth) - Authentification :
MINIMAX_API_KEYpourminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYpourminimax-portal - Exemple de modèle :
minimax/MiniMax-M2.7ouminimax-portal/MiniMax-M2.7 - L’intégration/la configuration par clé API de MiniMax écrit des définitions explicites du modèle M2.7 avec
input: ["text", "image"]; le catalogue du fournisseur intégré garde les références de chat en texte seul jusqu’à la matérialisation de cette configuration du fournisseur - Moonshot :
moonshot(MOONSHOT_API_KEY) - Exemple de modèle :
moonshot/kimi-k2.5 - Kimi Coding :
kimi(KIMI_API_KEYouKIMICODE_API_KEY) - Exemple de modèle :
kimi/kimi-code - Qianfan :
qianfan(QIANFAN_API_KEY) - Exemple de modèle :
qianfan/deepseek-v3.2 - Qwen Cloud :
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYouDASHSCOPE_API_KEY) - Exemple de modèle :
qwen/qwen3.5-plus - NVIDIA :
nvidia(NVIDIA_API_KEY) - Exemple de modèle :
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun :
stepfun/stepfun-plan(STEPFUN_API_KEY) - Exemples de modèles :
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together :
together(TOGETHER_API_KEY) - Exemple de modèle :
together/moonshotai/Kimi-K2.5 - Venice :
venice(VENICE_API_KEY) - Xiaomi :
xiaomi(XIAOMI_API_KEY) - Exemple de modèle :
xiaomi/mimo-v2-flash - Vercel AI Gateway :
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference :
huggingface(HUGGINGFACE_HUB_TOKENouHF_TOKEN) - Cloudflare AI Gateway :
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine :
volcengine(VOLCANO_ENGINE_API_KEY) - Exemple de modèle :
volcengine-plan/ark-code-latest - BytePlus :
byteplus(BYTEPLUS_API_KEY) - Exemple de modèle :
byteplus-plan/ark-code-latest - xAI :
xai(XAI_API_KEY)- Les requêtes xAI natives intégrées utilisent le chemin xAI Responses
/fastouparams.fastMode: trueréécritgrok-3,grok-3-mini,grok-4etgrok-4-0709vers leurs variantes*-fasttool_streamest activé par défaut ; définissezagents.defaults.models["xai/<model>"].params.tool_streamàfalsepour le désactiver
- Mistral :
mistral(MISTRAL_API_KEY) - Exemple de modèle :
mistral/mistral-large-latest - CLI :
openclaw onboard --auth-choice mistral-api-key - Groq :
groq(GROQ_API_KEY) - Cerebras :
cerebras(CEREBRAS_API_KEY)- Les modèles GLM sur Cerebras utilisent les identifiants
zai-glm-4.7etzai-glm-4.6. - URL de base compatible OpenAI :
https://api.cerebras.ai/v1.
- Les modèles GLM sur Cerebras utilisent les identifiants
- GitHub Copilot :
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Exemple de modèle Hugging Face Inference :
huggingface/deepseek-ai/DeepSeek-R1; CLI :openclaw onboard --auth-choice huggingface-api-key. Voir Hugging Face (Inference).
Fournisseurs via models.providers (personnalisé/URL de base)
Utilisez models.providers (ou models.json) pour ajouter des fournisseurs personnalisés ou
des proxys compatibles OpenAI/Anthropic.
Beaucoup des plugins de fournisseur intégrés ci-dessous publient déjà un catalogue par défaut.
Utilisez des entrées explicites models.providers.<id> uniquement lorsque vous voulez remplacer
l’URL de base, les en-têtes ou la liste de modèles par défaut.
Moonshot AI (Kimi)
Moonshot est fourni comme plugin de fournisseur intégré. Utilisez le fournisseur intégré par défaut, et ajoutez une entrée explicitemodels.providers.moonshot uniquement lorsque vous
devez remplacer l’URL de base ou les métadonnées du modèle :
- Fournisseur :
moonshot - Authentification :
MOONSHOT_API_KEY - Exemple de modèle :
moonshot/kimi-k2.5 - CLI :
openclaw onboard --auth-choice moonshot-api-keyouopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding utilise le point de terminaison compatible Anthropic de Moonshot AI :- Fournisseur :
kimi - Authentification :
KIMI_API_KEY - Exemple de modèle :
kimi/kimi-code
kimi/k2p5 reste accepté.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) donne accès à Doubao et à d’autres modèles en Chine.- Fournisseur :
volcengine(coding :volcengine-plan) - Authentification :
VOLCANO_ENGINE_API_KEY - Exemple de modèle :
volcengine-plan/ark-code-latest - CLI :
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
est enregistré en même temps.
Dans les sélecteurs de modèles d’intégration/configuration, le choix d’authentification Volcengine privilégie à la fois
les lignes volcengine/* et volcengine-plan/*. Si ces modèles ne sont pas encore chargés,
OpenClaw se replie sur le catalogue non filtré au lieu d’afficher un sélecteur vide
limité au fournisseur.
Modèles disponibles :
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan) :
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK donne accès aux mêmes modèles que Volcano Engine pour les utilisateurs internationaux.- Fournisseur :
byteplus(coding :byteplus-plan) - Authentification :
BYTEPLUS_API_KEY - Exemple de modèle :
byteplus-plan/ark-code-latest - CLI :
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
est enregistré en même temps.
Dans les sélecteurs de modèles d’intégration/configuration, le choix d’authentification BytePlus privilégie à la fois
les lignes byteplus/* et byteplus-plan/*. Si ces modèles ne sont pas encore chargés,
OpenClaw se replie sur le catalogue non filtré au lieu d’afficher un sélecteur vide
limité au fournisseur.
Modèles disponibles :
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan) :
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic fournit des modèles compatibles Anthropic derrière le fournisseursynthetic :
- Fournisseur :
synthetic - Authentification :
SYNTHETIC_API_KEY - Exemple de modèle :
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI :
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax se configure viamodels.providers car il utilise des points de terminaison personnalisés :
- MiniMax OAuth (Global) :
--auth-choice minimax-global-oauth - MiniMax OAuth (CN) :
--auth-choice minimax-cn-oauth - Clé API MiniMax (Global) :
--auth-choice minimax-global-api - Clé API MiniMax (CN) :
--auth-choice minimax-cn-api - Authentification :
MINIMAX_API_KEYpourminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYpourminimax-portal
/fast on réécrit
MiniMax-M2.7 en MiniMax-M2.7-highspeed.
Répartition des capacités gérée par le plugin :
- Les valeurs par défaut texte/chat restent sur
minimax/MiniMax-M2.7 - La génération d’images est
minimax/image-01ouminimax-portal/image-01 - La compréhension d’images est
MiniMax-VL-01, gérée par le plugin, sur les deux chemins d’authentification MiniMax - La recherche web reste sur l’identifiant de fournisseur
minimax
Ollama
Ollama est livré comme plugin de fournisseur intégré et utilise l’API native d’Ollama :- Fournisseur :
ollama - Authentification : aucune requise (serveur local)
- Exemple de modèle :
ollama/llama3.3 - Installation : https://ollama.com/download
http://127.0.0.1:11434 lorsque vous activez l’option avec
OLLAMA_API_KEY, et le plugin de fournisseur intégré ajoute Ollama directement à
openclaw onboard et au sélecteur de modèles. Voir /providers/ollama
pour l’intégration, le mode cloud/local et la configuration personnalisée.
vLLM
vLLM est livré comme plugin de fournisseur intégré pour les serveurs compatibles OpenAI locaux/autohébergés :- Fournisseur :
vllm - Authentification : facultative (dépend de votre serveur)
- URL de base par défaut :
http://127.0.0.1:8000/v1
/v1/models) :
SGLang
SGLang est livré comme plugin de fournisseur intégré pour les serveurs compatibles OpenAI autohébergés rapides :- Fournisseur :
sglang - Authentification : facultative (dépend de votre serveur)
- URL de base par défaut :
http://127.0.0.1:30000/v1
/v1/models) :
Proxys locaux (LM Studio, vLLM, LiteLLM, etc.)
Exemple (compatible OpenAI) :- Pour les fournisseurs personnalisés,
reasoning,input,cost,contextWindowetmaxTokenssont facultatifs. Lorsqu’ils sont omis, OpenClaw utilise par défaut :reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recommandé : définissez des valeurs explicites correspondant aux limites de votre proxy/modèle.
- Pour
api: "openai-completions"sur des points de terminaison non natifs (toutebaseUrlnon vide dont l’hôte n’est pasapi.openai.com), OpenClaw forcecompat.supportsDeveloperRole: falsepour éviter les erreurs 400 du fournisseur pour les rôlesdevelopernon pris en charge. - Les routes compatibles OpenAI de type proxy ignorent aussi le façonnage natif des requêtes réservé à OpenAI :
pas de
service_tier, pas destoreResponses, pas d’indications de cache d’invite, pas de façonnage de charge utile de compatibilité de raisonnement OpenAI, et pas d’en-têtes d’attribution OpenClaw cachés. - Si
baseUrlest vide/omis, OpenClaw conserve le comportement OpenAI par défaut (qui se résout versapi.openai.com). - Par sécurité, une valeur explicite
compat.supportsDeveloperRole: trueest quand même remplacée sur les points de terminaison non natifsopenai-completions.
Exemples CLI
Liens connexes
- Modèles — configuration des modèles et alias
- Basculement de modèles — chaînes de repli et comportement de nouvelle tentative
- Référence de configuration — clés de configuration des modèles
- Fournisseurs — guides de configuration par fournisseur