Início rápido e configuração da primeira execução
Estou travado, qual é a forma mais rápida de destravar?
Estou travado, qual é a forma mais rápida de destravar?
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
--install-method git.Dica: peça ao agente para planejar e supervisionar a correção (passo a passo) e depois executar apenas os
comandos necessários. Isso mantém as mudanças pequenas e mais fáceis de auditar.Se você descobrir um bug real ou uma correção, por favor abra uma issue no GitHub ou envie um PR:
https://github.com/openclaw/openclaw/issues
https://github.com/openclaw/openclaw/pullsComece com estes comandos (compartilhe as saídas ao pedir ajuda):openclaw status: snapshot rápido da saúde do gateway/agente + configuração básica.openclaw models status: verifica autenticação de provedor + disponibilidade de modelos.openclaw doctor: valida e repara problemas comuns de configuração/estado.
openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.Loop rápido de depuração: Primeiros 60 segundos se algo estiver quebrado.
Documentação de instalação: Install, Installer flags, Updating.O Heartbeat continua pulando. O que significam os motivos de pulo?
O Heartbeat continua pulando. O que significam os motivos de pulo?
quiet-hours: fora da janela configurada de horário ativoempty-heartbeat-file:HEARTBEAT.mdexiste, mas contém apenas estrutura em branco ou apenas cabeçalhosno-tasks-due: o modo de tarefa deHEARTBEAT.mdestá ativo, mas nenhum dos intervalos de tarefa venceu aindaalerts-disabled: toda a visibilidade de Heartbeat está desabilitada (showOk,showAlertseuseIndicatorestão todos desligados)
Forma recomendada de instalar e configurar o OpenClaw
Forma recomendada de instalar e configurar o OpenClaw
pnpm openclaw onboard.Como abro o dashboard após o onboarding?
Como abro o dashboard após o onboarding?
Como autentico o dashboard em localhost vs remoto?
Como autentico o dashboard em localhost vs remoto?
- Abra
http://127.0.0.1:18789/. - Se pedir autenticação por segredo compartilhado, cole o token ou a senha configurados nas configurações da Control UI.
- Fonte do token:
gateway.auth.token(ouOPENCLAW_GATEWAY_TOKEN). - Fonte da senha:
gateway.auth.password(ouOPENCLAW_GATEWAY_PASSWORD). - Se ainda não houver segredo compartilhado configurado, gere um token com
openclaw doctor --generate-gateway-token.
- Tailscale Serve (recomendado): mantenha bind em loopback, execute
openclaw gateway --tailscale serve, abrahttps://<magicdns>/. Segateway.auth.allowTailscalefortrue, headers de identidade satisfazem a autenticação da Control UI/WebSocket (sem colar segredo compartilhado, assumindo host do gateway confiável); APIs HTTP ainda exigem autenticação por segredo compartilhado, a menos que você use deliberadamentenoneem ingresso privado ou autenticação HTTP por trusted-proxy. Tentativas concorrentes ruins de autenticação Serve do mesmo cliente são serializadas antes de o limitador de falhas de autenticação registrá-las, então a segunda tentativa ruim já pode mostrarretry later. - Bind na tailnet: execute
openclaw gateway --bind tailnet --token "<token>"(ou configure autenticação por senha), abrahttp://<tailscale-ip>:18789/e depois cole o segredo compartilhado correspondente nas configurações do dashboard. - Proxy reverso com reconhecimento de identidade: mantenha o Gateway atrás de um trusted proxy sem loopback, configure
gateway.auth.mode: "trusted-proxy"e então abra a URL do proxy. - Túnel SSH:
ssh -N -L 18789:127.0.0.1:18789 user@hoste então abrahttp://127.0.0.1:18789/. A autenticação por segredo compartilhado continua valendo pelo túnel; cole o token ou a senha configurados se solicitado.
Por que existem duas configurações de aprovação de execução para aprovações no chat?
Por que existem duas configurações de aprovação de execução para aprovações no chat?
approvals.exec: encaminha prompts de aprovação para destinos de chatchannels.<channel>.execApprovals: faz esse canal atuar como cliente nativo de aprovação para aprovações de execução
- Se o chat já oferece suporte a comandos e respostas,
/approveno mesmo chat funciona pelo caminho compartilhado. - Se um canal nativo compatível puder inferir aprovadores com segurança, o OpenClaw agora habilita automaticamente aprovações nativas em DMs primeiro quando
channels.<channel>.execApprovals.enabledestá indefinido ou como"auto". - Quando cartões/botões nativos de aprovação estão disponíveis, essa UI nativa é o caminho principal; o agente só deve incluir um comando manual
/approvese o resultado da ferramenta disser que aprovações por chat não estão disponíveis ou que a aprovação manual é o único caminho. - Use
approvals.execapenas quando os prompts também precisarem ser encaminhados para outros chats ou salas explícitas de operação. - Use
channels.<channel>.execApprovals.target: "channel"ou"both"apenas quando quiser explicitamente que prompts de aprovação sejam publicados de volta na sala/tópico de origem. - Aprovações de Plugin são separadas novamente: elas usam
/approveno mesmo chat por padrão, encaminhamento opcional deapprovals.plugin, e apenas alguns canais nativos mantêm o tratamento nativo de aprovação de plugin por cima disso.
De que runtime eu preciso?
De que runtime eu preciso?
pnpm é recomendado. Bun não é recomendado para o Gateway.Funciona em Raspberry Pi?
Funciona em Raspberry Pi?
Alguma dica para instalações em Raspberry Pi?
Alguma dica para instalações em Raspberry Pi?
- Use um SO 64-bit e mantenha Node >= 22.
- Prefira a instalação hackable (git) para que você possa ver logs e atualizar rapidamente.
- Comece sem canais/Skills e depois adicione-os um por um.
- Se você encontrar problemas estranhos com binários, normalmente é um problema de compatibilidade com ARM.
Está travado em wake up my friend / o onboarding não conclui. E agora?
Está travado em wake up my friend / o onboarding não conclui. E agora?
- Reinicie o Gateway:
- Verifique status + autenticação:
- Se ainda travar, execute:
Posso migrar minha configuração para uma nova máquina (Mac mini) sem refazer o onboarding?
Posso migrar minha configuração para uma nova máquina (Mac mini) sem refazer o onboarding?
- Instale o OpenClaw na nova máquina.
- Copie
$OPENCLAW_STATE_DIR(padrão:~/.openclaw) da máquina antiga. - Copie seu workspace (padrão:
~/.openclaw/workspace). - Execute
openclaw doctore reinicie o serviço do Gateway.
~/.openclaw/ (por exemplo ~/.openclaw/agents/<agentId>/sessions/).Relacionados: Migrating, Where things live on disk,
Agent workspace, Doctor,
Remote mode.Onde vejo o que há de novo na versão mais recente?
Onde vejo o que há de novo na versão mais recente?
Não consigo acessar docs.openclaw.ai (erro de SSL)
Não consigo acessar docs.openclaw.ai (erro de SSL)
docs.openclaw.ai via Xfinity
Advanced Security. Desabilite isso ou coloque docs.openclaw.ai na allowlist e tente novamente.
Por favor, nos ajude a desbloqueá-lo reportando aqui: https://spa.xfinity.com/check_url_status.Se você ainda não conseguir acessar o site, a documentação está espelhada no GitHub:
https://github.com/openclaw/openclaw/tree/main/docsDiferença entre stable e beta
Diferença entre stable e beta
latest= stablebeta= build antecipada para testes
latest. Mantenedores também podem
publicar direto em latest quando necessário. É por isso que beta e stable podem
apontar para a mesma versão após a promoção.Veja o que mudou:
https://github.com/openclaw/openclaw/blob/main/CHANGELOG.mdPara one-liners de instalação e a diferença entre beta e dev, consulte o accordion abaixo.Como instalo a versão beta e qual é a diferença entre beta e dev?
Como instalo a versão beta e qual é a diferença entre beta e dev?
beta do npm (pode corresponder a latest após promoção).
Dev é a cabeça móvel de main (git); quando publicada, usa a dist-tag dev do npm.One-liners (macOS/Linux):Como experimento os bits mais recentes?
Como experimento os bits mais recentes?
- Canal dev (checkout git):
main e atualiza a partir do código-fonte.- Instalação hackable (a partir do site do instalador):
Quanto tempo a instalação e o onboarding normalmente levam?
Quanto tempo a instalação e o onboarding normalmente levam?
- Instalação: 2-5 minutos
- Onboarding: 5-15 minutos, dependendo de quantos canais/modelos você configurar
Instalador travado? Como obtenho mais feedback?
Instalador travado? Como obtenho mais feedback?
A instalação no Windows diz git not found ou openclaw not recognized
A instalação no Windows diz git not found ou openclaw not recognized
- Instale o Git for Windows e garanta que
gitesteja no seu PATH. - Feche e reabra o PowerShell, depois execute o instalador novamente.
- Sua pasta global bin do npm não está no PATH.
-
Verifique o caminho:
-
Adicione esse diretório ao PATH do usuário (não é necessário o sufixo
\binno Windows; na maioria dos sistemas é%AppData%\npm). - Feche e reabra o PowerShell após atualizar o PATH.
A saída de exec no Windows mostra texto chinês corrompido - o que devo fazer?
A saída de exec no Windows mostra texto chinês corrompido - o que devo fazer?
- a saída de
system.run/execmostra chinês como mojibake - o mesmo comando aparece corretamente em outro perfil de terminal
A documentação não respondeu minha pergunta - como obtenho uma resposta melhor?
A documentação não respondeu minha pergunta - como obtenho uma resposta melhor?
Como instalo o OpenClaw no Linux?
Como instalo o OpenClaw no Linux?
- Caminho rápido do Linux + instalação de serviço: Linux.
- Passo a passo completo: Getting Started.
- Instalador + atualizações: Install & updates.
Como instalo o OpenClaw em uma VPS?
Como instalo o OpenClaw em uma VPS?
Onde estão os guias de instalação em nuvem/VPS?
Onde estão os guias de instalação em nuvem/VPS?
- VPS hosting (todos os provedores em um só lugar)
- Fly.io
- Hetzner
- exe.dev
Posso pedir ao OpenClaw para se atualizar sozinho?
Posso pedir ao OpenClaw para se atualizar sozinho?
O que o onboarding realmente faz?
O que o onboarding realmente faz?
openclaw onboard é o caminho recomendado de configuração. No modo local, ele orienta você por:- Configuração de modelo/autenticação (OAuth de provedor, chaves de API, setup-token da Anthropic, além de opções de modelo local como LM Studio)
- Localização do workspace + arquivos de bootstrap
- Configurações do Gateway (bind/porta/autenticação/tailscale)
- Canais (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, além de plugins de canal empacotados como QQ Bot)
- Instalação de daemon (LaunchAgent no macOS; unidade de usuário systemd no Linux/WSL2)
- Verificações de saúde e seleção de Skills
Preciso de uma assinatura do Claude ou OpenAI para executar isso?
Preciso de uma assinatura do Claude ou OpenAI para executar isso?
- Chave de API Anthropic: cobrança normal da API da Anthropic
- Claude CLI / autenticação por assinatura Claude no OpenClaw: a equipe da Anthropic
nos disse que esse uso voltou a ser permitido, e o OpenClaw está tratando o uso de
claude -pcomo sancionado para essa integração, a menos que a Anthropic publique uma nova política
Posso usar a assinatura Claude Max sem uma chave de API?
Posso usar a assinatura Claude Max sem uma chave de API?
claude -p como sancionados
para essa integração, a menos que a Anthropic publique uma nova política. Se você quiser
a configuração mais previsível do lado do servidor, use uma chave de API da Anthropic.Vocês oferecem suporte à autenticação por assinatura Claude (Claude Pro ou Max)?
Vocês oferecem suporte à autenticação por assinatura Claude (Claude Pro ou Max)?
claude -p como sancionados para esta integração,
a menos que a Anthropic publique uma nova política.O setup-token da Anthropic continua disponível como um caminho de token compatível no OpenClaw, mas o OpenClaw agora prefere a reutilização do Claude CLI e claude -p quando disponíveis.
Para cargas de trabalho de produção ou multiusuário, a autenticação por chave de API da Anthropic continua sendo a
escolha mais segura e previsível. Se você quiser outras opções hospedadas em estilo assinatura
no OpenClaw, consulte OpenAI, Qwen / Model
Cloud, MiniMax e GLM
Models.Por que estou vendo HTTP 429 rate_limit_error da Anthropic?
Por que estou vendo HTTP 429 rate_limit_error da Anthropic?
Extra usage is required for long context requests, isso significa que o request está tentando usar
o beta de contexto 1M da Anthropic (context1m: true). Isso só funciona quando sua
credencial é elegível para cobrança de contexto longo (cobrança por chave de API ou o
caminho Claude-login do OpenClaw com Extra Usage habilitado).Dica: defina um modelo de fallback para que o OpenClaw possa continuar respondendo enquanto um provedor estiver limitado por taxa.
Consulte Models, OAuth e
/gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.AWS Bedrock é compatível?
AWS Bedrock é compatível?
amazon-bedrock; caso contrário, você pode habilitar explicitamente plugins.entries.amazon-bedrock.config.discovery.enabled ou adicionar uma entrada manual de provedor. Consulte Amazon Bedrock e Model providers. Se preferir um fluxo de chave gerenciada, um proxy compatível com OpenAI na frente do Bedrock continua sendo uma opção válida.Como funciona a autenticação do Codex?
Como funciona a autenticação do Codex?
openai-codex/gpt-5.5 para OAuth do Codex pelo executor PI padrão. Use
openai/gpt-5.4 para o acesso atual direto por chave de API da OpenAI. O acesso direto
por chave de API ao GPT-5.5 é compatível assim que a OpenAI o habilitar na API pública; hoje
o GPT-5.5 usa assinatura/OAuth via openai-codex/gpt-5.5 ou execuções nativas de servidor do app Codex com openai/gpt-5.5 e embeddedHarness.runtime: "codex".
Consulte Model providers e Onboarding (CLI).Por que o OpenClaw ainda menciona openai-codex?
Por que o OpenClaw ainda menciona openai-codex?
openai-codex é o ID do provedor e do perfil de autenticação para OAuth de ChatGPT/Codex.
Ele também é o prefixo explícito do modelo PI para OAuth do Codex:openai/gpt-5.4= rota atual direta por chave de API da OpenAI no PIopenai/gpt-5.5= futura rota direta por chave de API assim que a OpenAI habilitar GPT-5.5 na APIopenai-codex/gpt-5.5= rota OAuth do Codex no PIopenai/gpt-5.5+embeddedHarness.runtime: "codex"= rota nativa de servidor do app Codexopenai-codex:...= ID de perfil de autenticação, não uma referência de modelo
OPENAI_API_KEY. Se quiser autenticação por assinatura ChatGPT/Codex, faça login com
openclaw models auth login --provider openai-codex e use
referências de modelo openai-codex/* para execuções PI.Por que os limites do Codex OAuth podem diferir do ChatGPT web?
Por que os limites do Codex OAuth podem diferir do ChatGPT web?
openclaw models status, mas ele não inventa nem normaliza direitos do ChatGPT web
em acesso direto à API. Se você quiser o caminho direto de cobrança/limite da OpenAI Platform,
use openai/* com uma chave de API.Vocês oferecem suporte à autenticação por assinatura da OpenAI (Codex OAuth)?
Vocês oferecem suporte à autenticação por assinatura da OpenAI (Codex OAuth)?
Como configuro o OAuth do Gemini CLI?
Como configuro o OAuth do Gemini CLI?
openclaw.json.Passos:- Instale o Gemini CLI localmente para que
geminiesteja noPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Habilite o Plugin:
openclaw plugins enable google - Faça login:
openclaw models auth login --provider google-gemini-cli --set-default - Modelo padrão após login:
google-gemini-cli/gemini-3-flash-preview - Se os requests falharem, defina
GOOGLE_CLOUD_PROJECTouGOOGLE_CLOUD_PROJECT_IDno host do gateway
Um modelo local serve para chats casuais?
Um modelo local serve para chats casuais?
Como mantenho o tráfego de modelo hospedado em uma região específica?
Como mantenho o tráfego de modelo hospedado em uma região específica?
models.mode: "merge" para que os fallbacks continuem disponíveis enquanto respeitam o provedor regional selecionado.Preciso comprar um Mac Mini para instalar isso?
Preciso comprar um Mac Mini para instalar isso?
Preciso de um Mac mini para suporte ao iMessage?
Preciso de um Mac mini para suporte ao iMessage?
- Execute o Gateway em Linux/VPS e rode o servidor BlueBubbles em qualquer Mac conectado ao Messages.
- Execute tudo no Mac se quiser a configuração de máquina única mais simples.
Se eu comprar um Mac mini para rodar o OpenClaw, posso conectá-lo ao meu MacBook Pro?
Se eu comprar um Mac mini para rodar o OpenClaw, posso conectá-lo ao meu MacBook Pro?
system.run nesse dispositivo.Padrão comum:- Gateway no Mac mini (sempre ativo).
- MacBook Pro executa o app macOS ou um host de node e pareia com o Gateway.
- Use
openclaw nodes status/openclaw nodes listpara vê-lo.
Posso usar Bun?
Posso usar Bun?
Telegram: o que entra em allowFrom?
Telegram: o que entra em allowFrom?
channels.telegram.allowFrom é o ID de usuário do Telegram do remetente humano (numérico). Não é o nome de usuário do bot.A configuração pede apenas IDs numéricos de usuário. Se você já tiver entradas legadas @username na configuração, openclaw doctor --fix pode tentar resolvê-las.Mais seguro (sem bot de terceiros):- Envie DM ao seu bot, depois execute
openclaw logs --followe leiafrom.id.
- Envie DM ao seu bot, depois chame
https://api.telegram.org/bot<bot_token>/getUpdatese leiamessage.from.id.
- Envie DM a
@userinfobotou@getidsbot.
Várias pessoas podem usar um número de WhatsApp com instâncias diferentes do OpenClaw?
Várias pessoas podem usar um número de WhatsApp com instâncias diferentes do OpenClaw?
kind: "direct", remetente E.164 como +15551234567) de cada remetente a um agentId diferente, para que cada pessoa tenha seu próprio workspace e armazenamento de sessão. As respostas continuam vindo da mesma conta do WhatsApp, e o controle de acesso por DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) é global por conta do WhatsApp. Consulte Multi-Agent Routing e WhatsApp.Posso executar um agente de "chat rápido" e um agente "Opus para código"?
Posso executar um agente de "chat rápido" e um agente "Opus para código"?
Homebrew funciona no Linux?
Homebrew funciona no Linux?
/home/linuxbrew/.linuxbrew/bin (ou seu prefixo brew) para que ferramentas instaladas com brew sejam resolvidas em shells sem login.
Builds recentes também prefixam diretórios bin comuns de usuário em serviços Linux systemd (por exemplo ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) e respeitam PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR e FNM_DIR quando definidos.Diferença entre a instalação hackable com git e npm install
Diferença entre a instalação hackable com git e npm install
- Instalação hackable (git): checkout completo do código-fonte, editável, melhor para contribuintes. Você executa builds localmente e pode corrigir código/documentação.
- npm install: instalação global da CLI, sem repositório, melhor para “apenas executar”. As atualizações vêm de dist-tags do npm.
Posso alternar entre instalações npm e git depois?
Posso alternar entre instalações npm e git depois?
~/.openclaw) e workspace (~/.openclaw/workspace) permanecem intactos.De npm para git:--repair em automação).Dicas de backup: consulte Backup strategy.Devo executar o Gateway no meu laptop ou em uma VPS?
Devo executar o Gateway no meu laptop ou em uma VPS?
- Prós: sem custo de servidor, acesso direto a arquivos locais, janela de browser ao vivo.
- Contras: suspensão/quedas de rede = desconexões, atualizações/reinicializações do SO interrompem, a máquina precisa ficar acordada.
- Prós: sempre ativo, rede estável, sem problemas de suspensão do laptop, mais fácil de manter em execução.
- Contras: normalmente roda headless (use capturas de tela), acesso remoto apenas a arquivos, você precisa usar SSH para atualizações.
Quão importante é executar o OpenClaw em uma máquina dedicada?
Quão importante é executar o OpenClaw em uma máquina dedicada?
- Host dedicado (VPS/Mac mini/Pi): sempre ativo, menos interrupções por suspensão/reinicialização, permissões mais limpas, mais fácil de manter em execução.
- Laptop/desktop compartilhado: totalmente aceitável para testes e uso ativo, mas espere pausas quando a máquina suspender ou atualizar.
Quais são os requisitos mínimos de VPS e o SO recomendado?
Quais são os requisitos mínimos de VPS e o SO recomendado?
- Mínimo absoluto: 1 vCPU, 1GB de RAM, ~500MB de disco.
- Recomendado: 1-2 vCPU, 2GB de RAM ou mais para folga (logs, mídia, vários canais). Ferramentas de node e automação de browser podem consumir muitos recursos.
Posso executar o OpenClaw em uma VM e quais são os requisitos?
Posso executar o OpenClaw em uma VM e quais são os requisitos?
- Mínimo absoluto: 1 vCPU, 1GB de RAM.
- Recomendado: 2GB de RAM ou mais se você executar vários canais, automação de browser ou ferramentas de mídia.
- SO: Ubuntu LTS ou outro Debian/Ubuntu moderno.
Relacionados
- FAQ — o FAQ principal (modelos, sessões, gateway, segurança, mais)
- Install overview
- Getting started
- Troubleshooting