OpenAI
OpenAI proporciona API para desarrolladores para modelos GPT. OpenClaw admite dos rutas de autenticación:- Clave de API — acceso directo a OpenAI Platform con facturación según el uso (modelos
openai/*) - Suscripción de Codex — inicio de sesión de ChatGPT/Codex con acceso por suscripción (modelos
openai-codex/*)
Primeros pasos
Elige tu método de autenticación preferido y sigue los pasos de configuración.- Clave de API (OpenAI Platform)
- Suscripción de Codex
Ideal para: acceso directo a la API y facturación según el uso.
Obtén tu clave de API
Crea o copia una clave de API desde el panel de OpenAI Platform.
Resumen de rutas
| Model ref | Ruta | Auth |
|---|---|---|
openai/gpt-5.4 | API directa de OpenAI Platform | OPENAI_API_KEY |
openai/gpt-5.4-pro | API directa de OpenAI Platform | OPENAI_API_KEY |
El inicio de sesión de ChatGPT/Codex se enruta mediante
openai-codex/*, no openai/*.Ejemplo de configuración
Generación de imágenes
El Pluginopenai incluido registra la generación de imágenes mediante la herramienta image_generate.
| Capability | Value |
|---|---|
| Modelo predeterminado | openai/gpt-image-1 |
| Máximo de imágenes por solicitud | 4 |
| Modo de edición | Habilitado (hasta 5 imágenes de referencia) |
| Sustituciones de tamaño | Compatibles |
| Relación de aspecto / resolución | No se reenvían a la API de OpenAI Images |
Consulta Generación de imágenes para ver los parámetros compartidos de la herramienta, la selección de proveedor y el comportamiento de conmutación por error.
Generación de video
El Pluginopenai incluido registra la generación de video mediante la herramienta video_generate.
| Capability | Value |
|---|---|
| Modelo predeterminado | openai/sora-2 |
| Modos | Texto a video, imagen a video, edición de un solo video |
| Entradas de referencia | 1 imagen o 1 video |
| Sustituciones de tamaño | Compatibles |
| Otras sustituciones | aspectRatio, resolution, audio, watermark se ignoran con una advertencia de la herramienta |
Consulta Generación de video para ver los parámetros compartidos de la herramienta, la selección de proveedor y el comportamiento de conmutación por error.
Contribución de prompt de GPT-5
OpenClaw agrega una contribución de prompt de GPT-5 específica de OpenAI para ejecuciones de la familia GPT-5 deopenai/* y openai-codex/*. Vive en el Plugin de OpenAI incluido, se aplica a IDs de modelo como gpt-5, gpt-5.2, gpt-5.4 y gpt-5.4-mini, y no se aplica a modelos GPT-4.x más antiguos.
La contribución de GPT-5 agrega un contrato de comportamiento etiquetado para persistencia de persona, seguridad de ejecución, disciplina de herramientas, forma de salida, comprobaciones de finalización y verificación. El comportamiento específico del canal para respuestas y mensajes silenciosos permanece en el prompt del sistema compartido de OpenClaw y en la política de entrega saliente. La guía de GPT-5 siempre está habilitada para los modelos coincidentes. La capa de estilo de interacción amigable es independiente y configurable.
| Value | Effect |
|---|---|
"friendly" (predeterminado) | Habilita la capa de estilo de interacción amigable |
"on" | Alias de "friendly" |
"off" | Desactiva solo la capa de estilo amigable |
- Configuración
- CLI
Voz y habla
Síntesis de voz (TTS)
Síntesis de voz (TTS)
El Plugin
Modelos disponibles:
openai incluido registra la síntesis de voz para la superficie messages.tts.| Setting | Config path | Default |
|---|---|---|
| Modelo | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| Voz | messages.tts.providers.openai.voice | coral |
| Velocidad | messages.tts.providers.openai.speed | (sin configurar) |
| Instrucciones | messages.tts.providers.openai.instructions | (sin configurar, solo gpt-4o-mini-tts) |
| Formato | messages.tts.providers.openai.responseFormat | opus para notas de voz, mp3 para archivos |
| Clave de API | messages.tts.providers.openai.apiKey | Usa OPENAI_API_KEY como alternativa |
| URL base | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. Voces disponibles: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.Configura
OPENAI_TTS_BASE_URL para sustituir la URL base de TTS sin afectar el endpoint de la API de chat.Transcripción en tiempo real
Transcripción en tiempo real
El Plugin
openai incluido registra la transcripción en tiempo real para el Plugin Voice Call.| Setting | Config path | Default |
|---|---|---|
| Modelo | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| Duración del silencio | ...openai.silenceDurationMs | 800 |
| Umbral de VAD | ...openai.vadThreshold | 0.5 |
| Clave de API | ...openai.apiKey | Usa OPENAI_API_KEY como alternativa |
Usa una conexión WebSocket a
wss://api.openai.com/v1/realtime con audio G.711 u-law.Voz en tiempo real
Voz en tiempo real
El Plugin
openai incluido registra voz en tiempo real para el Plugin Voice Call.| Setting | Config path | Default |
|---|---|---|
| Modelo | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime |
| Voz | ...openai.voice | alloy |
| Temperature | ...openai.temperature | 0.8 |
| Umbral de VAD | ...openai.vadThreshold | 0.5 |
| Duración del silencio | ...openai.silenceDurationMs | 500 |
| Clave de API | ...openai.apiKey | Usa OPENAI_API_KEY como alternativa |
Admite Azure OpenAI mediante las claves de configuración
azureEndpoint y azureDeployment. Admite llamadas bidireccionales a herramientas. Usa formato de audio G.711 u-law.Configuración avanzada
Transporte (WebSocket frente a SSE)
Transporte (WebSocket frente a SSE)
OpenClaw usa WebSocket primero con alternativa SSE (
Documentación relacionada de OpenAI:
"auto") tanto para openai/* como para openai-codex/*.En modo "auto", OpenClaw:- Reintenta un fallo temprano de WebSocket antes de volver a SSE
- Tras un fallo, marca WebSocket como degradado durante ~60 segundos y usa SSE durante el período de enfriamiento
- Adjunta encabezados estables de identidad de sesión y turno para reintentos y reconexiones
- Normaliza los contadores de uso (
input_tokens/prompt_tokens) entre variantes de transporte
| Value | Behavior |
|---|---|
"auto" (predeterminado) | WebSocket primero, alternativa SSE |
"sse" | Forzar solo SSE |
"websocket" | Forzar solo WebSocket |
Calentamiento de WebSocket
Calentamiento de WebSocket
OpenClaw habilita el calentamiento de WebSocket de forma predeterminada para
openai/* para reducir la latencia del primer turno.Modo rápido
Modo rápido
OpenClaw expone un interruptor compartido de modo rápido tanto para
openai/* como para openai-codex/*:- Chat/UI:
/fast status|on|off - Configuración:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority"). Los valores existentes de service_tier se conservan, y el modo rápido no reescribe reasoning ni text.verbosity.Las sustituciones a nivel de sesión prevalecen sobre la configuración. Borrar la sustitución de sesión en la UI de sesiones devuelve la sesión al valor predeterminado configurado.
Procesamiento prioritario (service_tier)
Procesamiento prioritario (service_tier)
La API de OpenAI expone el procesamiento prioritario mediante Valores compatibles:
service_tier. Configúralo por modelo en OpenClaw:auto, default, flex, priority.Compaction del lado del servidor (Responses API)
Compaction del lado del servidor (Responses API)
Para modelos directos de OpenAI Responses (
openai/* en api.openai.com), OpenClaw habilita automáticamente Compaction del lado del servidor:- Fuerza
store: true(a menos que la compatibilidad del modelo establezcasupportsStore: false) - Inyecta
context_management: [{ type: "compaction", compact_threshold: ... }] compact_thresholdpredeterminado: 70% decontextWindow(o80000cuando no está disponible)
- Habilitar explícitamente
- Umbral personalizado
- Desactivar
Útil para endpoints compatibles como Azure OpenAI Responses:
responsesServerCompaction solo controla la inyección de context_management. Los modelos directos de OpenAI Responses siguen forzando store: true a menos que la compatibilidad establezca supportsStore: false.Modo GPT agéntico estricto
Modo GPT agéntico estricto
Para ejecuciones de la familia GPT-5 en Con
openai/* y openai-codex/*, OpenClaw puede usar un contrato de ejecución embebido más estricto:strict-agentic, OpenClaw:- Ya no trata un turno de solo plan como progreso satisfactorio cuando hay disponible una acción de herramienta
- Reintenta el turno con una guía de actuar ahora
- Habilita automáticamente
update_planpara trabajo sustancial - Muestra un estado explícito de bloqueo si el modelo sigue planificando sin actuar
Se limita solo a ejecuciones de la familia GPT-5 de OpenAI y Codex. Otros proveedores y familias de modelos más antiguas mantienen el comportamiento predeterminado.
Rutas nativas frente a rutas compatibles con OpenAI
Rutas nativas frente a rutas compatibles con OpenAI
OpenClaw trata los endpoints directos de OpenAI, Codex y Azure OpenAI de forma distinta a los proxies
/v1 genéricos compatibles con OpenAI:Rutas nativas (openai/*, openai-codex/*, Azure OpenAI):- Conservan
reasoning: { effort: "none" }solo para modelos que admiten el esfuerzononede OpenAI - Omiten el razonamiento desactivado para modelos o proxies que rechazan
reasoning.effort: "none" - Usan por defecto esquemas de herramientas en modo estricto
- Adjuntan encabezados de atribución ocultos solo en hosts nativos verificados
- Conservan la modelación de solicitudes exclusiva de OpenAI (
service_tier,store, compatibilidad de razonamiento, pistas de caché de prompt)
- Usan un comportamiento de compatibilidad más flexible
- No fuerzan esquemas de herramientas estrictos ni encabezados exclusivos nativos
Relacionado
Selección de modelos
Elegir proveedores, referencias de modelos y comportamiento de conmutación por error.
Generación de imágenes
Parámetros compartidos de herramientas de imágenes y selección de proveedor.
Generación de video
Parámetros compartidos de herramientas de video y selección de proveedor.
OAuth y autenticación
Detalles de autenticación y reglas de reutilización de credenciales.