Modelos: valores predeterminados, selección, alias, cambio
¿Qué es el "modelo predeterminado"?
¿Qué es el "modelo predeterminado"?
provider/model (ejemplo: openai/gpt-5.4 o openai-codex/gpt-5.5). Si omites el proveedor, OpenClaw primero intenta un alias, luego una coincidencia única de proveedor configurado para ese id exacto de modelo y solo entonces recurre al proveedor predeterminado configurado como una ruta de compatibilidad obsoleta. Si ese proveedor ya no expone el modelo predeterminado configurado, OpenClaw recurre al primer proveedor/modelo configurado en lugar de mostrar un valor predeterminado obsoleto de un proveedor eliminado. Aun así, deberías establecer explícitamente provider/model.¿Qué modelo recomiendas?
¿Qué modelo recomiendas?
¿Cómo cambio de modelo sin borrar mi configuración?
¿Cómo cambio de modelo sin borrar mi configuración?
/modelen chat (rápido, por sesión)openclaw models set ...(actualiza solo la configuración del modelo)openclaw configure --section model(interactivo)- editar
agents.defaults.modelen~/.openclaw/openclaw.json
config.apply con un objeto parcial a menos que tengas la intención de reemplazar toda la configuración.
Para ediciones por RPC, inspecciona primero con config.schema.lookup y prefiere config.patch. La carga útil de búsqueda te da la ruta normalizada, documentación/restricciones superficiales del esquema y resúmenes inmediatos de hijos.
para actualizaciones parciales.
Si sobrescribiste la configuración, restaura desde una copia de seguridad o vuelve a ejecutar openclaw doctor para repararla.Documentación: Models, Configure, Config, Doctor.¿Puedo usar modelos autoalojados (llama.cpp, vLLM, Ollama)?
¿Puedo usar modelos autoalojados (llama.cpp, vLLM, Ollama)?
- Instala Ollama desde
https://ollama.com/download - Descarga un modelo local como
ollama pull gemma4 - Si también quieres modelos en la nube, ejecuta
ollama signin - Ejecuta
openclaw onboardy eligeOllama - Elige
LocaloCloud + Local
Cloud + Localte da modelos en la nube más tus modelos locales de Ollama- los modelos en la nube como
kimi-k2.5:cloudno necesitan descarga local - para cambio manual, usa
openclaw models listyopenclaw models set ollama/<model>
¿Qué usan OpenClaw, Flawd y Krill como modelos?
¿Qué usan OpenClaw, Flawd y Krill como modelos?
- Estas implementaciones pueden diferir y cambiar con el tiempo; no hay una recomendación fija de proveedor.
- Revisa la configuración actual en tiempo de ejecución en cada gateway con
openclaw models status. - Para agentes sensibles a la seguridad o con herramientas, usa el modelo más potente y de última generación disponible.
¿Cómo cambio de modelo sobre la marcha (sin reiniciar)?
¿Cómo cambio de modelo sobre la marcha (sin reiniciar)?
/model como mensaje independiente:agents.defaults.models.Puedes listar los modelos disponibles con /model, /model list o /model status./model (y /model list) muestra un selector compacto numerado. Selecciona por número:/model status muestra qué agente está activo, qué archivo auth-profiles.json se está usando y qué perfil de autenticación se probará a continuación.
También muestra el endpoint del proveedor configurado (baseUrl) y el modo API (api) cuando están disponibles.¿Cómo quito la fijación de un perfil que establecí con @profile?Vuelve a ejecutar /model sin el sufijo @profile:/model (o envía /model <provider/model predeterminado>).
Usa /model status para confirmar qué perfil de autenticación está activo.¿Puedo usar GPT 5.5 para tareas diarias y Codex 5.5 para programación?
¿Puedo usar GPT 5.5 para tareas diarias y Codex 5.5 para programación?
- Cambio rápido (por sesión):
/model openai/gpt-5.4para tareas actuales con clave API directa de OpenAI o/model openai-codex/gpt-5.5para tareas OAuth de GPT-5.5 Codex. - Predeterminado: establece
agents.defaults.model.primaryenopenai/gpt-5.4para uso con clave API oopenai-codex/gpt-5.5para uso OAuth de GPT-5.5 Codex. - Subagentes: enruta tareas de programación a subagentes con un modelo predeterminado distinto.
openai/gpt-5.5 es compatible una vez que OpenAI habilite
GPT-5.5 en la API pública. Hasta entonces, GPT-5.5 es solo por suscripción/OAuth.Consulta Models y Comandos slash.¿Cómo configuro el modo rápido para GPT 5.5?
¿Cómo configuro el modo rápido para GPT 5.5?
- Por sesión: envía
/fast onmientras la sesión usaopenai/gpt-5.4oopenai-codex/gpt-5.5. - Predeterminado por modelo: establece
agents.defaults.models["openai/gpt-5.4"].params.fastModeoagents.defaults.models["openai-codex/gpt-5.5"].params.fastModeentrue.
service_tier = "priority" en solicitudes nativas compatibles de Responses. Las anulaciones de sesión con /fast prevalecen sobre los valores predeterminados de configuración.Consulta Thinking y modo rápido y Modo rápido de OpenAI.¿Por qué veo "Model ... is not allowed" y luego no hay respuesta?
¿Por qué veo "Model ... is not allowed" y luego no hay respuesta?
agents.defaults.models está configurado, se convierte en la lista de permitidos para /model y cualquier
anulación de sesión. Elegir un modelo que no esté en esa lista devuelve:agents.defaults.models, elimina la lista de permitidos o elige un modelo desde /model list.¿Por qué veo "Unknown model: minimax/MiniMax-M2.7"?
¿Por qué veo "Unknown model: minimax/MiniMax-M2.7"?
-
Actualiza a una versión actual de OpenClaw (o ejecuta desde la rama
main), luego reinicia el gateway. -
Asegúrate de que MiniMax esté configurado (asistente o JSON), o de que exista autenticación
de MiniMax en el entorno/perfiles de autenticación para que pueda inyectarse el proveedor correspondiente
(
MINIMAX_API_KEYparaminimax,MINIMAX_OAUTH_TOKENo OAuth de MiniMax almacenado paraminimax-portal). -
Usa el id exacto del modelo (distingue mayúsculas y minúsculas) para tu ruta de autenticación:
minimax/MiniMax-M2.7ominimax/MiniMax-M2.7-highspeedpara configuración con clave API, ominimax-portal/MiniMax-M2.7/minimax-portal/MiniMax-M2.7-highspeedpara configuración con OAuth. -
Ejecuta:
y elige de la lista (o
/model listen el chat).
¿Puedo usar MiniMax como predeterminado y OpenAI para tareas complejas?
¿Puedo usar MiniMax como predeterminado y OpenAI para tareas complejas?
/model o un agente separado.Opción A: cambiar por sesión- Agente A predeterminado: MiniMax
- Agente B predeterminado: OpenAI
- Enruta por agente o usa
/agentpara cambiar
¿Son opus / sonnet / gpt accesos directos integrados?
¿Son opus / sonnet / gpt accesos directos integrados?
agents.defaults.models):opus→anthropic/claude-opus-4-6sonnet→anthropic/claude-sonnet-4-6gpt→openai/gpt-5.4para configuraciones con clave API, oopenai-codex/gpt-5.5cuando está configurado para OAuth de Codexgpt-mini→openai/gpt-5.4-minigpt-nano→openai/gpt-5.4-nanogemini→google/gemini-3.1-pro-previewgemini-flash→google/gemini-3-flash-previewgemini-flash-lite→google/gemini-3.1-flash-lite-preview
¿Cómo defino o anulo atajos de modelo (alias)?
¿Cómo defino o anulo atajos de modelo (alias)?
agents.defaults.models.<modelId>.alias. Ejemplo:/model sonnet (o /<alias> cuando se admita) se resuelve a ese id de modelo.¿Cómo añado modelos de otros proveedores como OpenRouter o Z.AI?
¿Cómo añado modelos de otros proveedores como OpenRouter o Z.AI?
No API key found for provider "zai").No se encontró clave de API para el proveedor después de añadir un nuevo agenteEsto normalmente significa que el nuevo agente tiene un almacén de autenticación vacío. La autenticación es por agente y
se almacena en:- Ejecuta
openclaw agents add <id>y configura la autenticación durante el asistente. - O copia
auth-profiles.jsondesdeagentDirdel agente principal alagentDirdel nuevo agente.
agentDir entre agentes; provoca colisiones de autenticación/sesión.Conmutación por error de modelos y “Todos los modelos fallaron”
¿Cómo funciona la conmutación por error?
¿Cómo funciona la conmutación por error?
- Rotación de perfiles de autenticación dentro del mismo proveedor.
- Reserva de modelo al siguiente modelo en
agents.defaults.model.fallbacks.
429. OpenClaw
también trata mensajes como Too many concurrent requests,
ThrottlingException, concurrency limit reached,
workers_ai ... quota limit exceeded, resource exhausted y límites
periódicos de ventana de uso (weekly/monthly limit reached) como
límites de tasa aptos para conmutación por error.Algunas respuestas con apariencia de facturación no son 402, y algunas
respuestas HTTP 402 también permanecen en ese grupo transitorio. Si un proveedor devuelve
texto explícito de facturación en 401 o 403, OpenClaw aún puede mantenerlo en
la vía de facturación, pero los comparadores de texto específicos del proveedor siguen limitados al
proveedor al que pertenecen (por ejemplo, OpenRouter Key limit exceeded). Si un mensaje 402
en cambio parece un límite de ventana de uso reintentable o un límite
de gasto de organización/espacio de trabajo (daily limit reached, resets tomorrow,
organization spending limit exceeded), OpenClaw lo trata como
rate_limit, no como una deshabilitación larga por facturación.Los errores de desbordamiento de contexto son distintos: firmas como
request_too_large, input exceeds the maximum number of tokens,
input token count exceeds the maximum number of input tokens,
input is too long for the model u ollama error: context length exceeded permanecen en la ruta de Compaction/reintento en lugar de avanzar la
reserva de modelo.El texto genérico de error del servidor es intencionadamente más limitado que “cualquier cosa con
unknown/error”. OpenClaw sí trata formas transitorias delimitadas por proveedor
como An unknown error occurred simple de Anthropic, Provider returned error simple de OpenRouter,
errores de motivo de parada como Unhandled stop reason: error, cargas JSON api_error con texto transitorio de servidor
(internal server error, unknown error, 520, upstream error, backend error) y errores de proveedor ocupado como ModelNotReadyException como
señales de tiempo de espera/sobrecarga aptas para conmutación por error cuando el contexto del proveedor
coincide.
El texto genérico de reserva interna como LLM request failed with an unknown error. permanece conservador y no activa por sí solo la conmutación por error de modelo.¿Qué significa "No credentials found for profile anthropic:default"?
¿Qué significa "No credentials found for profile anthropic:default"?
anthropic:default, pero no pudo encontrar credenciales para él en el almacén de autenticación esperado.Lista de comprobación para solucionarlo:- Confirma dónde viven los perfiles de autenticación (rutas nuevas frente a heredadas)
- Actual:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - Heredada:
~/.openclaw/agent/*(migrada poropenclaw doctor)
- Actual:
- Confirma que tu variable de entorno la carga el Gateway
- Si estableces
ANTHROPIC_API_KEYen tu shell pero ejecutas el Gateway mediante systemd/launchd, puede que no la herede. Ponla en~/.openclaw/.envo habilitaenv.shellEnv.
- Si estableces
- Asegúrate de estar editando el agente correcto
- Las configuraciones con varios agentes significan que puede haber varios archivos
auth-profiles.json.
- Las configuraciones con varios agentes significan que puede haber varios archivos
- Haz una comprobación rápida del estado de modelo/autenticación
- Usa
openclaw models statuspara ver los modelos configurados y si los proveedores están autenticados.
- Usa
-
Usa Claude CLI
- Ejecuta
openclaw models auth login --provider anthropic --method cli --set-defaulten el host del gateway.
- Ejecuta
-
Si quieres usar una clave de API en su lugar
-
Pon
ANTHROPIC_API_KEYen~/.openclaw/.enven el host del gateway. -
Borra cualquier orden fijado que fuerce un perfil inexistente:
-
Pon
-
Confirma que estás ejecutando los comandos en el host del gateway
- En modo remoto, los perfiles de autenticación viven en la máquina del gateway, no en tu portátil.
¿Por qué también intentó Google Gemini y falló?
¿Por qué también intentó Google Gemini y falló?
No API key found for provider "google".Solución: proporciona autenticación de Google o elimina/evita modelos de Google en agents.defaults.model.fallbacks / alias para que la reserva no se enrute ahí.LLM request rejected: thinking signature required (Google Antigravity)Causa: el historial de la sesión contiene bloques de thinking sin firmas (a menudo de
un stream abortado o parcial). Google Antigravity requiere firmas para los bloques de thinking.Solución: OpenClaw ahora elimina bloques de thinking sin firma para Claude de Google Antigravity. Si sigue apareciendo, inicia una nueva sesión o establece /thinking off para ese agente.Perfiles de autenticación: qué son y cómo gestionarlos
Relacionado: /concepts/oauth (flujos OAuth, almacenamiento de tokens, patrones de varias cuentas)¿Qué es un perfil de autenticación?
¿Qué es un perfil de autenticación?
¿Cuáles son los ID de perfil típicos?
¿Cuáles son los ID de perfil típicos?
anthropic:default(habitual cuando no existe identidad de correo electrónico)anthropic:<email>para identidades OAuth- ID personalizados que elijas (por ejemplo
anthropic:work)
¿Puedo controlar qué perfil de autenticación se prueba primero?
¿Puedo controlar qué perfil de autenticación se prueba primero?
auth.order.<provider>). Esto no almacena secretos; asigna ID a proveedor/modo y establece el orden de rotación.OpenClaw puede omitir temporalmente un perfil si está en un periodo de enfriamiento corto (límites de tasa/tiempos de espera/fallos de autenticación) o en un estado deshabilitado más largo (facturación/créditos insuficientes). Para inspeccionarlo, ejecuta openclaw models status --json y revisa auth.unusableProfiles. Ajuste: auth.cooldowns.billingBackoffHours*.Los periodos de enfriamiento por límite de tasa pueden tener alcance por modelo. Un perfil que está en enfriamiento
para un modelo aún puede ser utilizable para un modelo hermano del mismo proveedor,
mientras que las ventanas de facturación/deshabilitación siguen bloqueando todo el perfil.También puedes establecer una anulación de orden por agente (almacenada en el auth-state.json de ese agente) mediante la CLI:excluded_by_auth_order para ese perfil en lugar de intentarlo silenciosamente.OAuth frente a clave de API: ¿cuál es la diferencia?
OAuth frente a clave de API: ¿cuál es la diferencia?
- OAuth a menudo aprovecha el acceso por suscripción (cuando corresponde).
- Las claves de API usan facturación por token.
Relacionado
- Preguntas frecuentes — las preguntas frecuentes principales
- Preguntas frecuentes — inicio rápido y configuración de primera ejecución
- Selección de modelos
- Conmutación por error de modelos