Proveedores de modelos
Esta página cubre los proveedores de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulta /concepts/models.Reglas rápidas
- Las referencias de modelos usan
provider/model(ejemplo:opencode/claude-opus-4-6). - Si configuras
agents.defaults.models, se convierte en la allowlist. - Helpers de la CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - Las reglas de tiempo de ejecución para fallback, las sondas de cooldown y la persistencia de sobrescrituras de sesión están documentadas en /concepts/model-failover.
models.providers.*.models[].contextWindowes metadato nativo del modelo;models.providers.*.models[].contextTokenses el límite efectivo de tiempo de ejecución.- Los plugins de proveedores pueden inyectar catálogos de modelos mediante
registerProvider({ catalog }); OpenClaw fusiona esa salida enmodels.providersantes de escribirmodels.json. - Los manifiestos de proveedores pueden declarar
providerAuthEnvVarspara que las sondas genéricas de autenticación basadas en variables de entorno no necesiten cargar el tiempo de ejecución del plugin. El mapa restante de variables de entorno del núcleo ahora es solo para proveedores no plugin/del núcleo y algunos casos de precedencia genérica como el onboarding con prioridad en clave API de Anthropic. - Los plugins de proveedores también pueden gestionar el comportamiento de tiempo de ejecución del proveedor mediante
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, yonModelSelected. - Nota:
capabilitiesdel tiempo de ejecución del proveedor es metadato compartido del runner (familia del proveedor, peculiaridades de transcripción/herramientas, pistas de transporte/caché). No es lo mismo que el modelo público de capacidades que describe lo que registra un plugin (inferencia de texto, voz, etc.).
Comportamiento del proveedor gestionado por el plugin
Los plugins de proveedores ahora pueden gestionar la mayor parte de la lógica específica del proveedor mientras que OpenClaw mantiene el bucle genérico de inferencia. División típica:auth[].run/auth[].runNonInteractive: el proveedor gestiona los flujos de onboarding/login paraopenclaw onboard,openclaw models authy la configuración headlesswizard.setup/wizard.modelPicker: el proveedor gestiona las etiquetas de elección de autenticación, alias heredados, pistas de allowlist de onboarding y entradas de configuración en los selectores de onboarding/modeloscatalog: el proveedor aparece enmodels.providersnormalizeModelId: el proveedor normaliza ids heredados/de vista previa del modelo antes de la búsqueda o canonicalizaciónnormalizeTransport: el proveedor normalizaapi/baseUrlde la familia de transporte antes del ensamblado genérico del modelo; OpenClaw comprueba primero el proveedor coincidente, luego otros plugins de proveedores con capacidad de hook hasta que uno realmente cambie el transportenormalizeConfig: el proveedor normaliza la configuraciónmodels.providers.<id>antes de que el tiempo de ejecución la use; OpenClaw comprueba primero el proveedor coincidente, luego otros plugins de proveedores con capacidad de hook hasta que uno realmente cambie la configuración. Si ningún hook de proveedor reescribe la configuración, los helpers integrados de la familia Google aún normalizan las entradas compatibles de proveedores Google.applyNativeStreamingUsageCompat: el proveedor aplica reescrituras de compatibilidad de uso de streaming nativo impulsadas por el endpoint para proveedores de configuraciónresolveConfigApiKey: el proveedor resuelve autenticación con marcadores de entorno para proveedores de configuración sin forzar la carga completa de la autenticación de tiempo de ejecución.amazon-bedrocktambién tiene aquí un resolvedor integrado de marcadores de entorno AWS, aunque la autenticación de tiempo de ejecución de Bedrock usa la cadena predeterminada del SDK de AWS.resolveSyntheticAuth: el proveedor puede exponer disponibilidad de autenticación local/autohospedada u otra basada en configuración sin persistir secretos en texto planoshouldDeferSyntheticProfileAuth: el proveedor puede marcar placeholders sintéticos de perfiles almacenados como de menor precedencia que la autenticación basada en env/configresolveDynamicModel: el proveedor acepta ids de modelo aún no presentes en el catálogo estático localprepareDynamicModel: el proveedor necesita una actualización de metadatos antes de reintentar la resolución dinámicanormalizeResolvedModel: el proveedor necesita reescrituras de transporte o base URLcontributeResolvedModelCompat: el proveedor aporta flags de compatibilidad para sus modelos del proveedor incluso cuando llegan mediante otro transporte compatiblecapabilities: el proveedor publica peculiaridades de transcripción/herramientas/familia de proveedornormalizeToolSchemas: el proveedor limpia esquemas de herramientas antes de que el runner integrado los veainspectToolSchemas: el proveedor muestra advertencias de esquema específicas del transporte después de la normalizaciónresolveReasoningOutputMode: el proveedor elige contratos de salida de razonamiento nativos frente a etiquetadosprepareExtraParams: el proveedor establece valores predeterminados o normaliza parámetros de solicitud por modelocreateStreamFn: el proveedor reemplaza la ruta normal de streaming con un transporte totalmente personalizadowrapStreamFn: el proveedor aplica wrappers de compatibilidad de cabeceras/cuerpo/modelo a las solicitudesresolveTransportTurnState: el proveedor suministra cabeceras o metadatos nativos de transporte por turnoresolveWebSocketSessionPolicy: el proveedor suministra cabeceras de sesión WebSocket nativas o política de cool-down de sesióncreateEmbeddingProvider: el proveedor gestiona el comportamiento de embeddings de memoria cuando corresponde al plugin del proveedor en lugar del selector central de embeddings del núcleoformatApiKey: el proveedor formatea perfiles de autenticación almacenados en la cadenaapiKeyde tiempo de ejecución esperada por el transporterefreshOAuth: el proveedor gestiona la actualización de OAuth cuando los actualizadores compartidos depi-aino son suficientesbuildAuthDoctorHint: el proveedor añade orientación de reparación cuando falla la actualización de OAuthmatchesContextOverflowError: el proveedor reconoce errores específicos del proveedor por desbordamiento de ventana de contexto que las heurísticas genéricas pasarían por altoclassifyFailoverReason: el proveedor mapea errores en bruto específicos del proveedor del transporte/API a motivos de failover como límite de tasa o sobrecargaisCacheTtlEligible: el proveedor decide qué ids de modelo upstream admiten TTL de caché de promptsbuildMissingAuthMessage: el proveedor reemplaza el error genérico del almacén de autenticación por una pista de recuperación específica del proveedorsuppressBuiltInModel: el proveedor oculta filas upstream obsoletas y puede devolver un error gestionado por el proveedor para fallos de resolución directaaugmentModelCatalog: el proveedor añade filas sintéticas/finales al catálogo después del descubrimiento y la fusión de configuraciónisBinaryThinking: el proveedor gestiona la UX binaria de thinking activado/desactivadosupportsXHighThinking: el proveedor habilitaxhighpara modelos seleccionadosresolveDefaultThinkingLevel: el proveedor gestiona la política predeterminada de/thinkpara una familia de modelosapplyConfigDefaults: el proveedor aplica valores predeterminados globales específicos del proveedor durante la materialización de la configuración según el modo de autenticación, el entorno o la familia del modeloisModernModelRef: el proveedor gestiona la coincidencia de modelos preferidos live/smokeprepareRuntimeAuth: el proveedor convierte una credencial configurada en un token de tiempo de ejecución de corta duraciónresolveUsageAuth: el proveedor resuelve credenciales de uso/cuota para/usagey otras superficies relacionadas de estado/informesfetchUsageSnapshot: el proveedor gestiona la obtención/análisis del endpoint de uso mientras el núcleo sigue gestionando la estructura de resumen y el formatoonModelSelected: el proveedor ejecuta efectos secundarios posteriores a la selección, como telemetría o registro de sesión gestionado por el proveedor
anthropic: fallback de compatibilidad futura para Claude 4.6, pistas de reparación de autenticación, obtención del endpoint de uso, metadatos de TTL de caché/familia de proveedor y valores predeterminados globales de configuración sensibles a la autenticaciónamazon-bedrock: coincidencia de desbordamiento de contexto gestionada por el proveedor y clasificación de motivos de failover para errores específicos de Bedrock de throttling/no listo, además de la familia compartida de reproducciónanthropic-by-modelpara protecciones de política de reproducción solo de Claude en tráfico Anthropicanthropic-vertex: protecciones de política de reproducción solo de Claude en tráfico de mensajes Anthropicopenrouter: ids de modelo de paso directo, wrappers de solicitud, pistas de capacidad del proveedor, saneamiento de firmas de thinking de Gemini en tráfico Gemini por proxy, inyección de razonamiento por proxy mediante la familia de streamopenrouter-thinking, reenvío de metadatos de enrutamiento y política de TTL de cachégithub-copilot: onboarding/login de dispositivo, fallback de modelo con compatibilidad futura, pistas de transcripción de thinking de Claude, intercambio de tokens de tiempo de ejecución y obtención del endpoint de usoopenai: fallback de compatibilidad futura para GPT-5.4, normalización de transporte OpenAI directo, pistas de autenticación faltante con reconocimiento de Codex, supresión de Spark, filas sintéticas de catálogo de OpenAI/Codex, política de thinking/modelo live, normalización de alias de tokens de uso (input/outputy familiasprompt/completion), la familia compartida de streamopenai-responses-defaultspara wrappers nativos de OpenAI/Codex y metadatos de familia de proveedorgoogleygoogle-gemini-cli: fallback de compatibilidad futura para Gemini 3.1, validación nativa de reproducción de Gemini, saneamiento de bootstrap replay, modo etiquetado de salida de razonamiento y coincidencia de modelos modernos; el OAuth de Gemini CLI también gestiona el formateo del token de perfil de autenticación, el análisis de tokens de uso y la obtención del endpoint de cuota para superficies de usomoonshot: transporte compartido, normalización de carga útil de thinking gestionada por pluginkilocode: transporte compartido, cabeceras de solicitud gestionadas por plugin, normalización de carga útil de razonamiento, saneamiento de firmas de thinking de Gemini por proxy y política de TTL de cachézai: fallback de compatibilidad futura para GLM-5, valores predeterminados detool_stream, política de TTL de caché, política binaria de thinking/modelo live y autenticación de uso + obtención de cuota; los ids desconocidosglm-5*se sintetizan a partir de la plantilla integradaglm-4.7xai: normalización nativa de transporte Responses, reescrituras de alias/fastpara variantes rápidas de Grok,tool_streampredeterminado y limpieza específica de xAI de esquemas de herramientas / cargas útiles de razonamientomistral: metadatos de capacidades gestionados por pluginopencodeyopencode-go: metadatos de capacidades gestionados por plugin más saneamiento de firmas de thinking de Gemini por proxybyteplus,cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,together,venice,vercel-ai-gatewayyvolcengine: solo catálogos gestionados por pluginqwen: catálogos gestionados por plugin para modelos de texto más registros compartidos de proveedores de comprensión de medios y generación de video para sus superficies multimodales; la generación de video de Qwen usa los endpoints estándar de video DashScope con modelos Wan integrados comowan2.6-t2vywan2.7-r2vminimax: catálogos gestionados por plugin, selección híbrida de política de reproducción Anthropic/OpenAI y lógica de autenticación/instantánea de usoxiaomi: catálogos gestionados por plugin más lógica de autenticación/instantánea de uso
openai ahora gestiona ambos ids de proveedor: openai y
openai-codex.
Eso cubre a los proveedores que todavía encajan en los transportes normales de OpenClaw. Un proveedor
que necesite un ejecutor de solicitudes totalmente personalizado es una superficie de extensión
independiente y más profunda.
Rotación de claves API
- Admite rotación genérica de proveedores para proveedores seleccionados.
- Configura varias claves mediante:
OPENCLAW_LIVE_<PROVIDER>_KEY(sobrescritura live única, máxima prioridad)<PROVIDER>_API_KEYS(lista separada por comas o punto y coma)<PROVIDER>_API_KEY(clave principal)<PROVIDER>_API_KEY_*(lista numerada, por ejemplo<PROVIDER>_API_KEY_1)
- Para proveedores de Google,
GOOGLE_API_KEYtambién se incluye como respaldo. - El orden de selección de claves preserva la prioridad y elimina duplicados.
- Las solicitudes se reintentan con la siguiente clave solo en respuestas de límite de tasa (por
ejemplo
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededo mensajes periódicos de límite de uso). - Los fallos que no son de límite de tasa fallan inmediatamente; no se intenta ninguna rotación de claves.
- Cuando fallan todas las claves candidatas, se devuelve el error final del último intento.
Proveedores integrados (catálogo pi-ai)
OpenClaw se distribuye con el catálogo pi-ai. Estos proveedores no requieren configuraciónmodels.providers; solo establece la autenticación y elige un modelo.
OpenAI
- Proveedor:
openai - Autenticación:
OPENAI_API_KEY - Rotación opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, másOPENCLAW_LIVE_OPENAI_KEY(sobrescritura única) - Modelos de ejemplo:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - El transporte predeterminado es
auto(primero WebSocket, respaldo SSE) - Sobrescribe por modelo mediante
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"o"auto") - El calentamiento de WebSocket de OpenAI Responses está activado de forma predeterminada mediante
params.openaiWsWarmup(true/false) - El procesamiento prioritario de OpenAI puede activarse mediante
agents.defaults.models["openai/<model>"].params.serviceTier /fastyparams.fastModeasignan solicitudes Responses directasopenai/*aservice_tier=priorityenapi.openai.com- Usa
params.serviceTiercuando quieras un nivel explícito en lugar del interruptor compartido/fast - Las cabeceras ocultas de atribución de OpenClaw (
originator,version,User-Agent) se aplican solo en tráfico nativo de OpenAI haciaapi.openai.com, no en proxies genéricos compatibles con OpenAI - Las rutas nativas de OpenAI también conservan
storede Responses, pistas de caché de prompt y modelado de carga útil de compatibilidad de razonamiento de OpenAI; las rutas proxy no openai/gpt-5.3-codex-sparkse suprime intencionadamente en OpenClaw porque la API live de OpenAI lo rechaza; Spark se trata solo como Codex
Anthropic
- Proveedor:
anthropic - Autenticación:
ANTHROPIC_API_KEY - Rotación opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, másOPENCLAW_LIVE_ANTHROPIC_KEY(sobrescritura única) - Modelo de ejemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKeyoopenclaw onboard --auth-choice anthropic-cli - Las solicitudes Anthropic públicas directas admiten el interruptor compartido
/fastyparams.fastMode, incluido el tráfico autenticado por clave API y OAuth enviado aapi.anthropic.com; OpenClaw lo asigna a Anthropicservice_tier(autofrente astandard_only) - Nota de facturación: la documentación pública de Claude Code de Anthropic todavía incluye el uso directo de Claude Code en terminal dentro de los límites del plan Claude. Por separado, Anthropic notificó a los usuarios de OpenClaw el 4 de abril de 2026 a las 12:00 PM PT / 8:00 PM BST que la ruta de login de Claude de OpenClaw cuenta como uso de harness de terceros y requiere Extra Usage facturado por separado de la suscripción.
- El token de configuración de Anthropic vuelve a estar disponible como ruta heredada/manual de OpenClaw. Úsalo entendiendo que Anthropic indicó a los usuarios de OpenClaw que esta ruta requiere Extra Usage.
OpenAI Code (Codex)
- Proveedor:
openai-codex - Autenticación: OAuth (ChatGPT)
- Modelo de ejemplo:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexoopenclaw models auth login --provider openai-codex - El transporte predeterminado es
auto(primero WebSocket, respaldo SSE) - Sobrescribe por modelo mediante
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"o"auto") params.serviceTiertambién se reenvía en solicitudes nativas de Codex Responses (chatgpt.com/backend-api)- Las cabeceras ocultas de atribución de OpenClaw (
originator,version,User-Agent) solo se adjuntan en tráfico nativo de Codex haciachatgpt.com/backend-api, no en proxies genéricos compatibles con OpenAI - Comparte el mismo interruptor
/fasty la misma configuraciónparams.fastModequeopenai/*directo; OpenClaw lo asigna aservice_tier=priority openai-codex/gpt-5.3-codex-sparksigue disponible cuando el catálogo OAuth de Codex lo expone; depende de los permisosopenai-codex/gpt-5.4mantienecontextWindow = 1050000nativo y uncontextTokens = 272000de tiempo de ejecución predeterminado; sobrescribe el límite de tiempo de ejecución conmodels.providers.openai-codex.models[].contextTokens- Nota de política: el OAuth de OpenAI Codex es explícitamente compatible con herramientas/flujos externos como OpenClaw.
Otras opciones hospedadas de estilo suscripción
- Qwen Cloud: superficie del proveedor Qwen Cloud más mapeo de endpoints de Alibaba DashScope y Coding Plan
- MiniMax: acceso mediante OAuth o clave API de MiniMax Coding Plan
- GLM Models: Z.AI Coding Plan o endpoints API generales
OpenCode
- Autenticación:
OPENCODE_API_KEY(oOPENCODE_ZEN_API_KEY) - Proveedor de tiempo de ejecución Zen:
opencode - Proveedor de tiempo de ejecución Go:
opencode-go - Modelos de ejemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenoopenclaw onboard --auth-choice opencode-go
Google Gemini (clave API)
- Proveedor:
google - Autenticación:
GEMINI_API_KEY - Rotación opcional:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, respaldoGOOGLE_API_KEYyOPENCLAW_LIVE_GEMINI_KEY(sobrescritura única) - Modelos de ejemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidad: la configuración heredada de OpenClaw que usa
google/gemini-3.1-flash-previewse normaliza agoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Las ejecuciones directas de Gemini también aceptan
agents.defaults.models["google/<model>"].params.cachedContent(o el heredadocached_content) para reenviar un handle nativo del proveedorcachedContents/...; los aciertos de caché de Gemini aparecen comocacheReadde OpenClaw
Google Vertex y Gemini CLI
- Proveedores:
google-vertex,google-gemini-cli - Autenticación: Vertex usa gcloud ADC; Gemini CLI usa su flujo OAuth
- Precaución: el OAuth de Gemini CLI en OpenClaw es una integración no oficial. Algunos usuarios han informado de restricciones en cuentas de Google después de usar clientes de terceros. Revisa los términos de Google y usa una cuenta no crítica si decides continuar.
- El OAuth de Gemini CLI se distribuye como parte del plugin integrado
google.- Instala Gemini CLI primero:
brew install gemini-cli- o
npm install -g @google/gemini-cli
- Habilita:
openclaw plugins enable google - Inicia sesión:
openclaw models auth login --provider google-gemini-cli --set-default - Modelo predeterminado:
google-gemini-cli/gemini-3.1-pro-preview - Nota: no pegas un client id ni un secret en
openclaw.json. El flujo de login de la CLI almacena tokens en perfiles de autenticación en el host del gateway. - Si las solicitudes fallan después del login, configura
GOOGLE_CLOUD_PROJECToGOOGLE_CLOUD_PROJECT_IDen el host del gateway. - Las respuestas JSON de Gemini CLI se analizan desde
response; el uso usastatscomo respaldo, constats.cachednormalizado acacheReadde OpenClaw.
- Instala Gemini CLI primero:
Z.AI (GLM)
- Proveedor:
zai - Autenticación:
ZAI_API_KEY - Modelo de ejemplo:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Alias:
z.ai/*yz-ai/*se normalizan azai/* zai-api-keydetecta automáticamente el endpoint Z.AI correspondiente;zai-coding-global,zai-coding-cn,zai-globalyzai-cnfuerzan una superficie específica
- Alias:
Vercel AI Gateway
- Proveedor:
vercel-ai-gateway - Autenticación:
AI_GATEWAY_API_KEY - Modelo de ejemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Proveedor:
kilocode - Autenticación:
KILOCODE_API_KEY - Modelo de ejemplo:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL base:
https://api.kilo.ai/api/gateway/ - El catálogo estático de respaldo incluye
kilocode/kilo/auto; el descubrimiento live dehttps://api.kilo.ai/api/gateway/modelspuede ampliar aún más el catálogo de tiempo de ejecución. - El enrutamiento upstream exacto detrás de
kilocode/kilo/autoes gestionado por Kilo Gateway, no está codificado de forma fija en OpenClaw.
Otros plugins de proveedores integrados
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modelo de ejemplo:
openrouter/auto - OpenClaw aplica las cabeceras documentadas de atribución de app de OpenRouter solo cuando
la solicitud realmente apunta a
openrouter.ai - Los marcadores específicos de OpenRouter Anthropic
cache_controltambién se limitan a rutas verificadas de OpenRouter, no a URL proxy arbitrarias - OpenRouter sigue en la ruta de estilo proxy compatible con OpenAI, por lo que el modelado de solicitudes exclusivo de OpenAI nativo (
serviceTier,storede Responses, pistas de caché de prompt, cargas útiles de compatibilidad de razonamiento de OpenAI) no se reenvía - Las referencias de OpenRouter respaldadas por Gemini conservan solo el saneamiento de firmas de thinking de Gemini por proxy; la validación nativa de reproducción de Gemini y las reescrituras de bootstrap permanecen desactivadas
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Modelo de ejemplo:
kilocode/kilo/auto - Las referencias de Kilo respaldadas por Gemini conservan la misma ruta de saneamiento de firmas de thinking de Gemini por proxy;
kilocode/kilo/autoy otras pistas de proxy sin compatibilidad de razonamiento omiten la inyección de razonamiento por proxy - MiniMax:
minimax(clave API) yminimax-portal(OAuth) - Autenticación:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENoMINIMAX_API_KEYparaminimax-portal - Modelo de ejemplo:
minimax/MiniMax-M2.7ominimax-portal/MiniMax-M2.7 - La configuración de onboarding/clave API de MiniMax escribe definiciones explícitas del modelo M2.7 con
input: ["text", "image"]; el catálogo integrado del proveedor mantiene las referencias de chat solo texto hasta que se materializa esa configuración del proveedor - Moonshot:
moonshot(MOONSHOT_API_KEY) - Modelo de ejemplo:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYoKIMICODE_API_KEY) - Modelo de ejemplo:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - Modelo de ejemplo:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEYoDASHSCOPE_API_KEY) - Modelo de ejemplo:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - Modelo de ejemplo:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - Modelos de ejemplo:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - Modelo de ejemplo:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - Modelo de ejemplo:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENoHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - Modelo de ejemplo:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - Modelo de ejemplo:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- Las solicitudes xAI nativas integradas usan la ruta xAI Responses
/fastoparams.fastMode: truereescribengrok-3,grok-3-mini,grok-4ygrok-4-0709a sus variantes*-fasttool_streamestá activado de forma predeterminada; configuraagents.defaults.models["xai/<model>"].params.tool_streamenfalsepara desactivarlo
- Mistral:
mistral(MISTRAL_API_KEY) - Modelo de ejemplo:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Los modelos GLM en Cerebras usan los ids
zai-glm-4.7yzai-glm-4.6. - URL base compatible con OpenAI:
https://api.cerebras.ai/v1.
- Los modelos GLM en Cerebras usan los ids
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Modelo de ejemplo de Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Consulta Hugging Face (Inference).
Proveedores mediante models.providers (personalizado/base URL)
Usa models.providers (o models.json) para agregar proveedores personalizados
o proxies compatibles con OpenAI/Anthropic.
Muchos de los plugins de proveedores integrados a continuación ya publican un catálogo predeterminado.
Usa entradas explícitas models.providers.<id> solo cuando quieras sobrescribir la
URL base, las cabeceras o la lista de modelos predeterminadas.
Moonshot AI (Kimi)
Moonshot se distribuye como plugin integrado de proveedor. Usa el proveedor integrado de forma predeterminada y agrega una entrada explícitamodels.providers.moonshot solo cuando
necesites sobrescribir la URL base o los metadatos del modelo:
- Proveedor:
moonshot - Autenticación:
MOONSHOT_API_KEY - Modelo de ejemplo:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyoopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:- Proveedor:
kimi - Autenticación:
KIMI_API_KEY - Modelo de ejemplo:
kimi/kimi-code
kimi/k2p5 sigue aceptándose como id de compatibilidad del modelo.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) proporciona acceso a Doubao y otros modelos en China.- Proveedor:
volcengine(coding:volcengine-plan) - Autenticación:
VOLCANO_ENGINE_API_KEY - Modelo de ejemplo:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
se registra al mismo tiempo.
En los selectores de onboarding/configuración de modelos, la elección de autenticación de Volcengine prioriza ambas
filas volcengine/* y volcengine-plan/*. Si esos modelos aún no se han cargado,
OpenClaw usa como respaldo el catálogo sin filtrar en lugar de mostrar un selector vacío
limitado al proveedor.
Modelos disponibles:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (internacional)
BytePlus ARK proporciona acceso a los mismos modelos que Volcano Engine para usuarios internacionales.- Proveedor:
byteplus(coding:byteplus-plan) - Autenticación:
BYTEPLUS_API_KEY - Modelo de ejemplo:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
se registra al mismo tiempo.
En los selectores de onboarding/configuración de modelos, la elección de autenticación de BytePlus prioriza ambas
filas byteplus/* y byteplus-plan/*. Si esos modelos aún no se han cargado,
OpenClaw usa como respaldo el catálogo sin filtrar en lugar de mostrar un selector vacío
limitado al proveedor.
Modelos disponibles:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic proporciona modelos compatibles con Anthropic detrás del proveedorsynthetic:
- Proveedor:
synthetic - Autenticación:
SYNTHETIC_API_KEY - Modelo de ejemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax se configura mediantemodels.providers porque usa endpoints personalizados:
- MiniMax OAuth (global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax clave API (global):
--auth-choice minimax-global-api - MiniMax clave API (CN):
--auth-choice minimax-cn-api - Autenticación:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENoMINIMAX_API_KEYparaminimax-portal
/fast on reescribe
MiniMax-M2.7 a MiniMax-M2.7-highspeed.
División de capacidades gestionadas por plugin:
- Los valores predeterminados de texto/chat siguen en
minimax/MiniMax-M2.7 - La generación de imágenes es
minimax/image-01ominimax-portal/image-01 - La comprensión de imágenes es
MiniMax-VL-01, gestionada por plugin en ambas rutas de autenticación MiniMax - La búsqueda web se mantiene en el id de proveedor
minimax
Ollama
Ollama se distribuye como plugin integrado de proveedor y usa la API nativa de Ollama:- Proveedor:
ollama - Autenticación: no requerida (servidor local)
- Modelo de ejemplo:
ollama/llama3.3 - Instalación: https://ollama.com/download
http://127.0.0.1:11434 cuando activas la opción con
OLLAMA_API_KEY, y el plugin integrado del proveedor agrega Ollama directamente a
openclaw onboard y al selector de modelos. Consulta /providers/ollama
para ver onboarding, modo cloud/local y configuración personalizada.
vLLM
vLLM se distribuye como plugin integrado de proveedor para servidores locales/autohospedados compatibles con OpenAI:- Proveedor:
vllm - Autenticación: opcional (depende de tu servidor)
- URL base predeterminada:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
SGLang se distribuye como plugin integrado de proveedor para servidores autohospedados compatibles con OpenAI y de alto rendimiento:- Proveedor:
sglang - Autenticación: opcional (depende de tu servidor)
- URL base predeterminada:
http://127.0.0.1:30000/v1
/v1/models):
Proxies locales (LM Studio, vLLM, LiteLLM, etc.)
Ejemplo (compatible con OpenAI):- Para proveedores personalizados,
reasoning,input,cost,contextWindowymaxTokensson opcionales. Cuando se omiten, OpenClaw usa estos valores predeterminados:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recomendado: establece valores explícitos que coincidan con los límites de tu proxy/modelo.
- Para
api: "openai-completions"en endpoints no nativos (cualquierbaseUrlno vacía cuyo host no seaapi.openai.com), OpenClaw fuerzacompat.supportsDeveloperRole: falsepara evitar errores 400 del proveedor por rolesdeveloperno compatibles. - Las rutas proxy de estilo OpenAI-compatible también omiten el modelado de solicitudes exclusivo de OpenAI nativo: sin
service_tier, sinstorede Responses, sin pistas de caché de prompt, sin modelado de carga útil de compatibilidad de razonamiento de OpenAI y sin cabeceras ocultas de atribución de OpenClaw. - Si
baseUrlestá vacía u omitida, OpenClaw mantiene el comportamiento predeterminado de OpenAI (que resuelve aapi.openai.com). - Por seguridad, un
compat.supportsDeveloperRole: trueexplícito sigue siendo sobrescrito en endpoints no nativosopenai-completions.
Ejemplos de CLI
Relacionado
- Models — configuración y alias de modelos
- Model Failover — cadenas de fallback y comportamiento de reintento
- Configuration Reference — claves de configuración del modelo
- Providers — guías de configuración por proveedor