OpenAI
OpenAI proporciona API de desarrollo para modelos GPT. Codex admite inicio de sesión con ChatGPT para acceso por suscripción o inicio de sesión con clave API para acceso basado en uso. Codex cloud requiere inicio de sesión con ChatGPT. OpenAI admite explícitamente el uso de OAuth por suscripción en herramientas/flujos externos como OpenClaw.Estilo de interacción predeterminado
OpenClaw agrega por defecto una pequeña superposición de prompt específica de OpenAI tanto para ejecucionesopenai/* como openai-codex/*. La superposición mantiene al asistente cálido,
colaborativo, conciso y directo sin reemplazar el prompt de sistema base de OpenClaw.
Clave de configuración:
plugins.entries.openai.config.personalityOverlay
Valores permitidos:
"friendly": predeterminado; habilita la superposición específica de OpenAI."off": desactiva la superposición y usa solo el prompt base de OpenClaw.
- Se aplica a modelos
openai/*. - Se aplica a modelos
openai-codex/*. - No afecta a otros proveedores.
Desactivar la superposición de prompt de OpenAI
Si prefieres el prompt base de OpenClaw sin modificaciones, desactiva la superposición:Opción A: clave API de OpenAI (OpenAI Platform)
Lo mejor para: acceso directo a la API y facturación basada en uso. Obtén tu clave API desde el panel de OpenAI.Configuración con la CLI
Fragmento de configuración
gpt-5.4 y gpt-5.4-pro para uso directo
de la API de OpenAI. OpenClaw reenvía ambos mediante la ruta openai/* de Responses.
OpenClaw suprime intencionadamente la fila obsoleta openai/gpt-5.3-codex-spark,
porque las llamadas directas a la API de OpenAI la rechazan en tráfico live.
OpenClaw no expone openai/gpt-5.3-codex-spark en la ruta directa de la API de OpenAI.
pi-ai sigue incluyendo una fila integrada para ese modelo, pero las solicitudes live a la API de OpenAI
actualmente la rechazan. Spark se trata como exclusivo de Codex en OpenClaw.
Opción B: suscripción a OpenAI Code (Codex)
Lo mejor para: usar acceso por suscripción de ChatGPT/Codex en lugar de una clave API. Codex cloud requiere inicio de sesión con ChatGPT, mientras que la CLI de Codex admite inicio de sesión con ChatGPT o con clave API.Configuración con la CLI (OAuth de Codex)
Fragmento de configuración (suscripción de Codex)
gpt-5.4 como el modelo actual de Codex. OpenClaw
lo asigna a openai-codex/gpt-5.4 para uso con OAuth de ChatGPT/Codex.
Si el onboarding reutiliza un inicio de sesión existente de la CLI de Codex, esas credenciales siguen
gestionadas por la CLI de Codex. Cuando caducan, OpenClaw vuelve a leer primero la fuente externa de Codex
y, cuando el proveedor puede actualizarla, escribe la credencial actualizada
de vuelta en el almacenamiento de Codex en lugar de asumir la propiedad en una copia separada solo de OpenClaw.
Si tu cuenta de Codex tiene derecho a Codex Spark, OpenClaw también admite:
openai-codex/gpt-5.3-codex-spark
openai/gpt-5.3-codex-spark con clave API.
OpenClaw también conserva openai-codex/gpt-5.3-codex-spark cuando pi-ai
lo descubre. Trátalo como algo dependiente de permisos y experimental: Codex Spark es
independiente de /fast de GPT-5.4, y su disponibilidad depende de la cuenta de Codex /
ChatGPT con sesión iniciada.
Límite de ventana de contexto de Codex
OpenClaw trata los metadatos del modelo Codex y el límite de contexto de tiempo de ejecución como valores separados. Paraopenai-codex/gpt-5.4:
contextWindownativo:1050000- límite predeterminado
contextTokensde tiempo de ejecución:272000
models.providers.<provider>.models[].contextTokens:
contextWindow solo cuando declares o sobrescribas metadatos nativos del modelo.
Usa contextTokens cuando quieras limitar el presupuesto de contexto en tiempo de ejecución.
Transporte predeterminado
OpenClaw usapi-ai para el streaming de modelos. Tanto para openai/* como para
openai-codex/*, el transporte predeterminado es "auto" (primero WebSocket y después
respaldo SSE).
En modo "auto", OpenClaw también reintenta un fallo temprano y reintentable de WebSocket
antes de pasar a SSE. El modo forzado "websocket" sigue mostrando directamente los errores de transporte
en lugar de ocultarlos tras el fallback.
Después de un fallo de conexión o de un fallo temprano de turno en WebSocket en modo "auto", OpenClaw marca
la ruta WebSocket de esa sesión como degradada durante unos 60 segundos y envía
los turnos posteriores por SSE durante ese período de enfriamiento en lugar de alternar
entre transportes.
Para endpoints nativos de la familia OpenAI (openai/*, openai-codex/* y Azure
OpenAI Responses), OpenClaw también adjunta estado estable de sesión e identidad de turno
a las solicitudes para que los reintentos, las reconexiones y el fallback a SSE sigan alineados con la misma
identidad de conversación. En las rutas nativas de la familia OpenAI esto incluye cabeceras estables de identidad de solicitud de sesión/turno además de metadatos de transporte coincidentes.
OpenClaw también normaliza los contadores de uso de OpenAI entre variantes de transporte antes de
que lleguen a las superficies de sesión/status. El tráfico nativo de OpenAI/Codex Responses puede
informar del uso como input_tokens / output_tokens o como
prompt_tokens / completion_tokens; OpenClaw trata esos valores como los mismos contadores de entrada
y salida para /status, /usage y logs de sesión. Cuando el tráfico WebSocket nativo
omite total_tokens (o informa 0), OpenClaw usa como respaldo el total normalizado de entrada + salida para
que las vistas de sesión/status sigan mostrando datos.
Puedes establecer agents.defaults.models.<provider/model>.params.transport:
"sse": fuerza SSE"websocket": fuerza WebSocket"auto": intenta WebSocket y luego usa SSE como fallback
openai/* (API Responses), OpenClaw también habilita por
defecto el calentamiento de WebSocket (openaiWsWarmup: true) cuando se usa transporte WebSocket.
Documentación relacionada de OpenAI:
Calentamiento de WebSocket de OpenAI
La documentación de OpenAI describe el calentamiento como opcional. OpenClaw lo habilita por defecto paraopenai/* para reducir la latencia del primer turno al usar transporte WebSocket.
Desactivar el calentamiento
Habilitar el calentamiento explícitamente
Procesamiento prioritario de OpenAI y Codex
La API de OpenAI expone el procesamiento prioritario medianteservice_tier=priority. En
OpenClaw, configura agents.defaults.models["<provider>/<model>"].params.serviceTier
para reenviar ese campo en endpoints nativos de OpenAI/Codex Responses.
auto, default, flex y priority.
OpenClaw reenvía params.serviceTier tanto a solicitudes directas de Responses openai/*
como a solicitudes de Codex Responses openai-codex/* cuando esos modelos apuntan
a los endpoints nativos de OpenAI/Codex.
Comportamiento importante:
openai/*directo debe apuntar aapi.openai.comopenai-codex/*debe apuntar achatgpt.com/backend-api- si enrutas cualquiera de los dos proveedores mediante otra URL base o un proxy, OpenClaw deja
service_tiersin tocar
Modo rápido de OpenAI
OpenClaw expone un interruptor compartido de modo rápido tanto para sesionesopenai/* como
openai-codex/*:
- Chat/UI:
/fast status|on|off - Configuración:
agents.defaults.models["<provider>/<model>"].params.fastMode
- las llamadas directas a Responses
openai/*haciaapi.openai.comenvíanservice_tier = "priority" - las llamadas a Responses
openai-codex/*haciachatgpt.com/backend-apitambién envíanservice_tier = "priority" - los valores existentes de
service_tieren la carga útil se conservan - el modo rápido no reescribe
reasoningnitext.verbosity
Rutas nativas de OpenAI frente a rutas compatibles con OpenAI
OpenClaw trata los endpoints directos de OpenAI, Codex y Azure OpenAI de forma diferente a los proxies/v1 genéricos compatibles con OpenAI:
- las rutas nativas
openai/*,openai-codex/*y Azure OpenAI mantienenreasoning: { effort: "none" }intacto cuando desactivas explícitamente el razonamiento - las rutas nativas de la familia OpenAI usan por defecto el modo estricto para esquemas de herramientas
- las cabeceras ocultas de atribución de OpenClaw (
originator,versionyUser-Agent) solo se adjuntan en hosts nativos verificados de OpenAI (api.openai.com) y hosts nativos de Codex (chatgpt.com/backend-api) - las rutas nativas de OpenAI/Codex mantienen el modelado de solicitudes exclusivo de OpenAI, como
service_tier,storede Responses, cargas útiles de compatibilidad de razonamiento de OpenAI y pistas de caché de prompts - las rutas proxy de estilo compatible con OpenAI mantienen el comportamiento de compatibilidad más flexible y no fuerzan esquemas de herramientas estrictos, modelado de solicitudes exclusivo del modo nativo ni cabeceras ocultas de atribución de OpenAI/Codex
/v1 de terceros.
Compactación en servidor de OpenAI Responses
Para modelos directos de OpenAI Responses (openai/* usando api: "openai-responses" con
baseUrl en api.openai.com), OpenClaw ahora habilita automáticamente pistas de carga útil
de compactación del lado del servidor de OpenAI:
- Fuerza
store: true(salvo que la compatibilidad del modelo configuresupportsStore: false) - Inyecta
context_management: [{ type: "compaction", compact_threshold: ... }]
compact_threshold es el 70% de contextWindow del modelo (o 80000
cuando no está disponible).
Habilitar explícitamente la compactación del lado del servidor
Úsalo cuando quieras forzar la inyección decontext_management en modelos
Responses compatibles (por ejemplo Azure OpenAI Responses):
Habilitar con un umbral personalizado
Desactivar la compactación del lado del servidor
responsesServerCompaction solo controla la inyección de context_management.
Los modelos directos de OpenAI Responses siguen forzando store: true salvo que compat configure
supportsStore: false.
Notas
- Las referencias de modelo siempre usan
provider/model(consulta /concepts/models). - Los detalles de autenticación + reglas de reutilización están en /concepts/oauth.