OpenAI
A OpenAI fornece APIs para desenvolvedores para modelos GPT. O OpenClaw oferece suporte a duas rotas de auth:- Chave de API — acesso direto à OpenAI Platform com cobrança baseada em uso (modelos
openai/*) - Assinatura do Codex — login no ChatGPT/Codex com acesso por assinatura (modelos
openai-codex/*)
Primeiros passos
Escolha seu método de auth preferido e siga as etapas de configuração.- Chave de API (OpenAI Platform)
- Assinatura do Codex
Ideal para: acesso direto à API e cobrança baseada em uso.
Obtenha sua chave de API
Crie ou copie uma chave de API no painel da OpenAI Platform.
Resumo da rota
| Model ref | Rota | Auth |
|---|---|---|
openai/gpt-5.4 | API direta da OpenAI Platform | OPENAI_API_KEY |
openai/gpt-5.4-pro | API direta da OpenAI Platform | OPENAI_API_KEY |
O login do ChatGPT/Codex é roteado por
openai-codex/*, não por openai/*.Exemplo de configuração
Geração de imagem
O pluginopenai integrado registra a geração de imagem por meio da ferramenta image_generate.
| Capacidade | Valor |
|---|---|
| Modelo padrão | openai/gpt-image-1 |
| Máximo de imagens por solicitação | 4 |
| Modo de edição | Ativado (até 5 imagens de referência) |
| Substituições de tamanho | Compatíveis |
| Proporção / resolução | Não encaminhadas para a OpenAI Images API |
Consulte Geração de imagem para ver parâmetros compartilhados da ferramenta, seleção de provedor e comportamento de failover.
Geração de vídeo
O pluginopenai integrado registra a geração de vídeo por meio da ferramenta video_generate.
| Capacidade | Valor |
|---|---|
| Modelo padrão | openai/sora-2 |
| Modos | Texto para vídeo, imagem para vídeo, edição de um único vídeo |
| Entradas de referência | 1 imagem ou 1 vídeo |
| Substituições de tamanho | Compatíveis |
| Outras substituições | aspectRatio, resolution, audio, watermark são ignorados com um aviso da ferramenta |
Consulte Geração de vídeo para ver parâmetros compartilhados da ferramenta, seleção de provedor e comportamento de failover.
Overlay de personalidade
O OpenClaw adiciona um pequeno overlay de prompt específico da OpenAI para execuçõesopenai/* e openai-codex/*. O overlay mantém o assistente caloroso, colaborativo, conciso e um pouco mais expressivo emocionalmente, sem substituir o prompt base do sistema.
| Valor | Efeito |
|---|---|
"friendly" (padrão) | Ativa o overlay específico da OpenAI |
"on" | Alias para "friendly" |
"off" | Usa apenas o prompt base do OpenClaw |
- Config
- CLI
Voz e fala
Síntese de fala (TTS)
Síntese de fala (TTS)
O plugin
Modelos disponíveis:
openai integrado registra síntese de fala para a superfície messages.tts.| Setting | Caminho de configuração | Padrão |
|---|---|---|
| Modelo | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| Voz | messages.tts.providers.openai.voice | coral |
| Velocidade | messages.tts.providers.openai.speed | (não definido) |
| Instruções | messages.tts.providers.openai.instructions | (não definido, apenas gpt-4o-mini-tts) |
| Formato | messages.tts.providers.openai.responseFormat | opus para notas de voz, mp3 para arquivos |
| Chave de API | messages.tts.providers.openai.apiKey | Usa fallback para OPENAI_API_KEY |
| Base URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. Vozes disponíveis: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.Defina
OPENAI_TTS_BASE_URL para substituir a base URL de TTS sem afetar o endpoint da API de chat.Transcrição em tempo real
Transcrição em tempo real
O plugin
openai integrado registra transcrição em tempo real para o Plugin Voice Call.| Setting | Caminho de configuração | Padrão |
|---|---|---|
| Modelo | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| Duração do silêncio | ...openai.silenceDurationMs | 800 |
| Limiar de VAD | ...openai.vadThreshold | 0.5 |
| Chave de API | ...openai.apiKey | Usa fallback para OPENAI_API_KEY |
Usa uma conexão WebSocket com
wss://api.openai.com/v1/realtime com áudio G.711 u-law.Voz em tempo real
Voz em tempo real
O plugin
openai integrado registra voz em tempo real para o Plugin Voice Call.| Setting | Caminho de configuração | Padrão |
|---|---|---|
| Modelo | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime |
| Voz | ...openai.voice | alloy |
| Temperatura | ...openai.temperature | 0.8 |
| Limiar de VAD | ...openai.vadThreshold | 0.5 |
| Duração do silêncio | ...openai.silenceDurationMs | 500 |
| Chave de API | ...openai.apiKey | Usa fallback para OPENAI_API_KEY |
Compatível com Azure OpenAI por meio das chaves de configuração
azureEndpoint e azureDeployment. Compatível com chamada de ferramentas bidirecional. Usa formato de áudio G.711 u-law.Configuração avançada
Transporte (WebSocket vs SSE)
Transporte (WebSocket vs SSE)
O OpenClaw usa WebSocket primeiro com fallback para SSE (
Documentação relacionada da OpenAI:
"auto") tanto para openai/* quanto para openai-codex/*.No modo "auto", o OpenClaw:- Tenta novamente uma falha inicial de WebSocket antes de usar fallback para SSE
- Após uma falha, marca o WebSocket como degradado por ~60 segundos e usa SSE durante o período de resfriamento
- Anexa cabeçalhos estáveis de identidade de sessão e turno para novas tentativas e reconexões
- Normaliza contadores de uso (
input_tokens/prompt_tokens) entre variantes de transporte
| Valor | Comportamento |
|---|---|
"auto" (padrão) | WebSocket primeiro, fallback para SSE |
"sse" | Força apenas SSE |
"websocket" | Força apenas WebSocket |
Aquecimento de WebSocket
Aquecimento de WebSocket
O OpenClaw ativa o aquecimento de WebSocket por padrão para
openai/* para reduzir a latência do primeiro turno.Modo rápido
Modo rápido
O OpenClaw expõe uma alternância compartilhada de modo rápido para
openai/* e openai-codex/*:- Chat/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority"). Valores existentes de service_tier são preservados, e o modo rápido não reescreve reasoning nem text.verbosity.Substituições no nível da sessão têm prioridade sobre a configuração. Limpar a substituição da sessão na UI de Sessions faz a sessão voltar ao padrão configurado.
Processamento prioritário (service_tier)
Processamento prioritário (service_tier)
A API da OpenAI expõe processamento prioritário por meio de Valores compatíveis:
service_tier. Defina isso por modelo no OpenClaw:auto, default, flex, priority.Compaction no lado do servidor (Responses API)
Compaction no lado do servidor (Responses API)
Para modelos Responses diretos da OpenAI (
openai/* em api.openai.com), o OpenClaw ativa automaticamente Compaction no lado do servidor:- Força
store: true(a menos que a compatibilidade do modelo definasupportsStore: false) - Injeta
context_management: [{ type: "compaction", compact_threshold: ... }] compact_thresholdpadrão: 70% decontextWindow(ou80000quando indisponível)
- Ativar explicitamente
- Limite personalizado
- Desativar
Útil para endpoints compatíveis como Azure OpenAI Responses:
responsesServerCompaction controla apenas a injeção de context_management. Modelos Responses diretos da OpenAI ainda forçam store: true, a menos que a compatibilidade defina supportsStore: false.Modo GPT agêntico estrito
Modo GPT agêntico estrito
Para execuções da família GPT-5 em Com
openai/* e openai-codex/*, o OpenClaw pode usar um contrato de execução embutido mais estrito:strict-agentic, o OpenClaw:- Não trata mais um turno apenas com plano como progresso bem-sucedido quando há uma ação de ferramenta disponível
- Tenta novamente o turno com uma orientação para agir agora
- Ativa automaticamente
update_planpara trabalho substancial - Expõe um estado explícito de bloqueio se o modelo continuar planejando sem agir
Escopo apenas para execuções da família GPT-5 da OpenAI e do Codex. Outros provedores e famílias de modelos mais antigas mantêm o comportamento padrão.
Rotas nativas vs compatíveis com OpenAI
Rotas nativas vs compatíveis com OpenAI
O OpenClaw trata endpoints diretos da OpenAI, Codex e Azure OpenAI de forma diferente de proxies genéricos compatíveis com OpenAI em
/v1:Rotas nativas (openai/*, openai-codex/*, Azure OpenAI):- Mantêm
reasoning: { effort: "none" }intacto quando o raciocínio está explicitamente desativado - Usam por padrão esquemas de ferramentas em modo estrito
- Anexam cabeçalhos ocultos de atribuição apenas em hosts nativos verificados
- Mantêm a formatação de solicitação exclusiva da OpenAI (
service_tier,store, compatibilidade de reasoning, dicas de cache de prompt)
- Usam comportamento de compatibilidade mais flexível
- Não forçam esquemas de ferramentas estritos nem cabeçalhos exclusivos nativos
Relacionado
Seleção de modelo
Escolha de provedores, refs de modelo e comportamento de failover.
Geração de imagem
Parâmetros compartilhados da ferramenta de imagem e seleção de provedor.
Geração de vídeo
Parâmetros compartilhados da ferramenta de vídeo e seleção de provedor.
OAuth e auth
Detalhes de auth e regras de reutilização de credenciais.