Avvio rapido e configurazione iniziale al primo avvio
Sono bloccato, modo più veloce per sbloccarmi
Sono bloccato, modo più veloce per sbloccarmi
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
--install-method git.Suggerimento: chiedi all’agente di pianificare e supervisionare la correzione (passo dopo passo), poi di eseguire solo i
comandi necessari. Così le modifiche restano piccole e più facili da controllare.Se scopri un vero bug o una correzione, apri un issue GitHub o invia una PR:
https://github.com/openclaw/openclaw/issues
https://github.com/openclaw/openclaw/pullsInizia con questi comandi (condividi gli output quando chiedi aiuto):openclaw status: snapshot rapido dello stato di salute del gateway/agente + configurazione di base.openclaw models status: controlla autenticazione del provider + disponibilità dei modelli.openclaw doctor: valida e ripara problemi comuni di configurazione/stato.
openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.Ciclo rapido di debug: Primi 60 secondi se qualcosa è rotto.
Documentazione di installazione: Install, Flag dell’installer, Updating.Heartbeat continua a saltare. Cosa significano i motivi di skip?
Heartbeat continua a saltare. Cosa significano i motivi di skip?
quiet-hours: fuori dalla finestra configurata di ore attiveempty-heartbeat-file:HEARTBEAT.mdesiste ma contiene solo struttura vuota o con soli headerno-tasks-due: la modalità attività diHEARTBEAT.mdè attiva ma nessuno degli intervalli delle attività è ancora in scadenzaalerts-disabled: tutta la visibilità Heartbeat è disabilitata (showOk,showAlertseuseIndicatorsono tutti disattivati)
Modo consigliato per installare e configurare OpenClaw
Modo consigliato per installare e configurare OpenClaw
pnpm openclaw onboard.Come apro la dashboard dopo l’onboarding?
Come apro la dashboard dopo l’onboarding?
Come autentico la dashboard su localhost rispetto al remoto?
Come autentico la dashboard su localhost rispetto al remoto?
- Apri
http://127.0.0.1:18789/. - Se chiede autenticazione con segreto condiviso, incolla il token o la password configurati nelle impostazioni della Control UI.
- Origine del token:
gateway.auth.token(oppureOPENCLAW_GATEWAY_TOKEN). - Origine della password:
gateway.auth.password(oppureOPENCLAW_GATEWAY_PASSWORD). - Se non è ancora configurato alcun segreto condiviso, genera un token con
openclaw doctor --generate-gateway-token.
- Tailscale Serve (consigliato): mantieni il bind su loopback, esegui
openclaw gateway --tailscale serve, aprihttps://<magicdns>/. Segateway.auth.allowTailscaleètrue, le intestazioni di identità soddisfano l’autenticazione di Control UI/WebSocket (nessun segreto condiviso incollato, presuppone host gateway trusted); le API HTTP richiedono comunque autenticazione con segreto condiviso salvo che tu usi deliberatamentenonesu ingresso privato o autenticazione HTTP trusted-proxy. Tentativi concorrenti errati di autenticazione Serve dallo stesso client vengono serializzati prima che il limiter dei fallimenti li registri, quindi già il secondo retry errato può mostrareretry later. - Bind tailnet: esegui
openclaw gateway --bind tailnet --token "<token>"(oppure configura autenticazione con password), aprihttp://<tailscale-ip>:18789/, poi incolla il segreto condiviso corrispondente nelle impostazioni della dashboard. - Reverse proxy identity-aware: mantieni il Gateway dietro un trusted proxy non loopback, configura
gateway.auth.mode: "trusted-proxy", poi apri l’URL del proxy. - Tunnel SSH:
ssh -N -L 18789:127.0.0.1:18789 user@hostpoi aprihttp://127.0.0.1:18789/. L’autenticazione con segreto condiviso continua ad applicarsi sul tunnel; incolla il token o la password configurati se richiesto.
Perché esistono due configurazioni di approvazione exec per le approvazioni in chat?
Perché esistono due configurazioni di approvazione exec per le approvazioni in chat?
approvals.exec: inoltra i prompt di approvazione alle destinazioni chatchannels.<channel>.execApprovals: fa sì che quel canale agisca come client di approvazione nativo per le approvazioni exec
- Se la chat supporta già comandi e risposte,
/approvenella stessa chat funziona tramite il percorso condiviso. - Se un canale nativo supportato può dedurre in sicurezza gli approvatori, OpenClaw ora abilita automaticamente approvazioni native con priorità ai DM quando
channels.<channel>.execApprovals.enablednon è impostato oppure è"auto". - Quando sono disponibili card/pulsanti di approvazione nativi, quella UI nativa è il percorso principale; l’agente dovrebbe includere un comando manuale
/approvesolo se il risultato dello strumento dice che le approvazioni chat non sono disponibili o che l’approvazione manuale è l’unico percorso. - Usa
approvals.execsolo quando i prompt devono anche essere inoltrati ad altre chat o a esplicite stanze operative. - Usa
channels.<channel>.execApprovals.target: "channel"oppure"both"solo quando vuoi esplicitamente che i prompt di approvazione vengano pubblicati di nuovo nella stanza/topic di origine. - Le approvazioni dei Plugin sono ancora separate: usano per impostazione predefinita
/approvenella stessa chat, inoltro opzionaleapprovals.plugin, e solo alcuni canali nativi mantengono sopra anche una gestione nativa delle approvazioni dei Plugin.
Di quale runtime ho bisogno?
Di quale runtime ho bisogno?
pnpm è consigliato. Bun non è consigliato per il Gateway.Funziona su Raspberry Pi?
Funziona su Raspberry Pi?
Ci sono consigli per installazioni Raspberry Pi?
Ci sono consigli per installazioni Raspberry Pi?
- Usa un OS 64-bit e mantieni Node >= 22.
- Preferisci l’installazione hackable (git) così puoi vedere i log e aggiornare rapidamente.
- Inizia senza canali/Skills, poi aggiungili uno alla volta.
- Se incontri problemi strani con binari, di solito è un problema di compatibilità ARM.
Si blocca su wake up my friend / l’onboarding non si schiude. E adesso?
Si blocca su wake up my friend / l’onboarding non si schiude. E adesso?
- Riavvia il Gateway:
- Controlla stato + autenticazione:
- Se continua a bloccarsi, esegui:
Posso migrare la mia configurazione su una nuova macchina (Mac mini) senza rifare l’onboarding?
Posso migrare la mia configurazione su una nuova macchina (Mac mini) senza rifare l’onboarding?
- Installa OpenClaw sulla nuova macchina.
- Copia
$OPENCLAW_STATE_DIR(predefinito:~/.openclaw) dalla vecchia macchina. - Copia il tuo workspace (predefinito:
~/.openclaw/workspace). - Esegui
openclaw doctore riavvia il servizio Gateway.
~/.openclaw/ (per esempio ~/.openclaw/agents/<agentId>/sessions/).Correlati: Migrazione, Dove si trovano le cose su disco,
Workspace dell’agente, Doctor,
Modalità remota.Dove vedo cosa c’è di nuovo nell’ultima versione?
Dove vedo cosa c’è di nuovo nell’ultima versione?
Impossibile accedere a docs.openclaw.ai (errore SSL)
Impossibile accedere a docs.openclaw.ai (errore SSL)
docs.openclaw.ai tramite Xfinity
Advanced Security. Disattivala oppure metti docs.openclaw.ai in allowlist, poi riprova.
Aiutaci a sbloccarlo segnalando qui: https://spa.xfinity.com/check_url_status.Se comunque non riesci a raggiungere il sito, la documentazione è replicata su GitHub:
https://github.com/openclaw/openclaw/tree/main/docsDifferenza tra stable e beta
Differenza tra stable e beta
latest= stablebeta= build anticipata per test
latest. I maintainer possono anche
pubblicare direttamente su latest quando necessario. Per questo motivo beta e stable possono
puntare alla stessa versione dopo la promozione.Vedi cosa è cambiato:
https://github.com/openclaw/openclaw/blob/main/CHANGELOG.mdPer i one-liner di installazione e la differenza tra beta e dev, vedi l’accordion qui sotto.Come installo la versione beta e qual è la differenza tra beta e dev?
Come installo la versione beta e qual è la differenza tra beta e dev?
beta (può coincidere con latest dopo la promozione).
Dev è la head mobile di main (git); quando viene pubblicata, usa il dist-tag npm dev.One-liner (macOS/Linux):Come provo gli ultimissimi aggiornamenti?
Come provo gli ultimissimi aggiornamenti?
- Canale dev (checkout git):
main e aggiorna dal sorgente.- Installazione hackable (dal sito dell’installer):
Quanto richiedono di solito installazione e onboarding?
Quanto richiedono di solito installazione e onboarding?
- Installazione: 2-5 minuti
- Onboarding: 5-15 minuti a seconda di quanti canali/modelli configuri
Installer bloccato? Come ottengo più feedback?
Installer bloccato? Come ottengo più feedback?
Su Windows l’installazione dice git not found oppure openclaw not recognized
Su Windows l’installazione dice git not found oppure openclaw not recognized
- Installa Git for Windows e assicurati che
gitsia nel tuo PATH. - Chiudi e riapri PowerShell, poi riesegui l’installer.
- La tua cartella bin globale npm non è nel PATH.
-
Controlla il percorso:
-
Aggiungi quella directory al tuo PATH utente (su Windows non serve il suffisso
\bin; sulla maggior parte dei sistemi è%AppData%\npm). - Chiudi e riapri PowerShell dopo aver aggiornato il PATH.
L’output exec su Windows mostra testo cinese illeggibile: cosa devo fare?
L’output exec su Windows mostra testo cinese illeggibile: cosa devo fare?
- l’output di
system.run/execmostra il cinese come mojibake - lo stesso comando appare corretto in un altro profilo terminale
La documentazione non ha risposto alla mia domanda: come ottengo una risposta migliore?
La documentazione non ha risposto alla mia domanda: come ottengo una risposta migliore?
Come installo OpenClaw su Linux?
Come installo OpenClaw su Linux?
- Percorso rapido Linux + installazione del servizio: Linux.
- Procedura completa: Getting Started.
- Installer + aggiornamenti: Install & updates.
Come installo OpenClaw su un VPS?
Come installo OpenClaw su un VPS?
Dove sono le guide di installazione cloud/VPS?
Dove sono le guide di installazione cloud/VPS?
- Hosting VPS (tutti i provider in un unico posto)
- Fly.io
- Hetzner
- exe.dev
Posso chiedere a OpenClaw di aggiornarsi da solo?
Posso chiedere a OpenClaw di aggiornarsi da solo?
Cosa fa davvero l’onboarding?
Cosa fa davvero l’onboarding?
openclaw onboard è il percorso di configurazione consigliato. In modalità locale ti guida attraverso:- Configurazione modello/autenticazione (OAuth provider, chiavi API, Anthropic setup-token, più opzioni di modello locale come LM Studio)
- Posizione del workspace + file bootstrap
- Impostazioni del Gateway (bind/porta/autenticazione/tailscale)
- Canali (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, più Plugin di canale inclusi come QQ Bot)
- Installazione daemon (LaunchAgent su macOS; unit systemd utente su Linux/WSL2)
- Controlli di salute e selezione delle Skills
Mi serve un abbonamento Claude o OpenAI per eseguirlo?
Mi serve un abbonamento Claude o OpenAI per eseguirlo?
- Chiave API Anthropic: normale fatturazione API Anthropic
- Autenticazione Claude CLI / abbonamento Claude in OpenClaw: il personale Anthropic
ci ha detto che questo uso è di nuovo consentito, e OpenClaw tratta l’uso di
claude -pcome approvato per questa integrazione salvo che Anthropic pubblichi una nuova policy
Posso usare l’abbonamento Claude Max senza una chiave API?
Posso usare l’abbonamento Claude Max senza una chiave API?
claude -p come approvati
per questa integrazione salvo che Anthropic pubblichi una nuova policy. Se vuoi
la configurazione server-side più prevedibile, usa invece una chiave API Anthropic.Supportate l’autenticazione con abbonamento Claude (Claude Pro o Max)?
Supportate l’autenticazione con abbonamento Claude (Claude Pro o Max)?
claude -p come approvati per questa integrazione
salvo che Anthropic pubblichi una nuova policy.Anthropic setup-token è ancora disponibile come percorso token supportato di OpenClaw, ma OpenClaw ora preferisce il riuso di Claude CLI e claude -p quando disponibili.
Per workload di produzione o multiutente, l’autenticazione con chiave API Anthropic resta
la scelta più sicura e prevedibile. Se vuoi altre opzioni hosted in stile abbonamento
in OpenClaw, vedi OpenAI, Qwen / Model
Cloud, MiniMax e Modelli
GLM.Perché vedo HTTP 429 rate_limit_error da Anthropic?
Perché vedo HTTP 429 rate_limit_error da Anthropic?
Extra usage is required for long context requests, la richiesta sta cercando di usare
la beta del contesto Anthropic da 1M (context1m: true). Funziona solo quando la tua
credenziale è idonea per la fatturazione long-context (fatturazione con chiave API o il
percorso Claude-login di OpenClaw con Extra Usage abilitato).Suggerimento: imposta un modello fallback così OpenClaw può continuare a rispondere mentre un provider è soggetto a rate limit.
Vedi Models, OAuth e
/gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.AWS Bedrock è supportato?
AWS Bedrock è supportato?
amazon-bedrock; altrimenti puoi abilitare esplicitamente plugins.entries.amazon-bedrock.config.discovery.enabled oppure aggiungere una voce provider manuale. Vedi Amazon Bedrock e Provider di modelli. Se preferisci un flusso con chiave gestita, anche un proxy OpenAI-compatible davanti a Bedrock resta un’opzione valida.Come funziona l’autenticazione Codex?
Come funziona l’autenticazione Codex?
openai-codex/gpt-5.5 per OAuth Codex tramite il runner PI predefinito. Usa
openai/gpt-5.4 per l’attuale accesso diretto con chiave API OpenAI. L’accesso diretto
con chiave API a GPT-5.5 è supportato una volta che OpenAI lo abilita sulla API pubblica; oggi
GPT-5.5 usa subscription/OAuth tramite openai-codex/gpt-5.5 oppure esecuzioni native
del server app Codex con openai/gpt-5.5 e embeddedHarness.runtime: "codex".
Vedi Provider di modelli e Onboarding (CLI).Perché OpenClaw continua a menzionare openai-codex?
Perché OpenClaw continua a menzionare openai-codex?
openai-codex è il provider e l’ID del profilo di autenticazione per OAuth ChatGPT/Codex.
È anche il prefisso esplicito del modello PI per OAuth Codex:openai/gpt-5.4= attuale percorso diretto con chiave API OpenAI in PIopenai/gpt-5.5= futuro percorso diretto con chiave API una volta che OpenAI abiliterà GPT-5.5 sulla APIopenai-codex/gpt-5.5= percorso OAuth Codex in PIopenai/gpt-5.5+embeddedHarness.runtime: "codex"= percorso nativo del server app Codexopenai-codex:...= ID profilo di autenticazione, non un riferimento modello
OPENAI_API_KEY. Se vuoi l’autenticazione tramite abbonamento ChatGPT/Codex, accedi con
openclaw models auth login --provider openai-codex e usa
riferimenti modello openai-codex/* per le esecuzioni PI.Perché i limiti di Codex OAuth possono differire da ChatGPT web?
Perché i limiti di Codex OAuth possono differire da ChatGPT web?
openclaw models status, ma non inventa né normalizza i diritti del web ChatGPT in accesso diretto API. Se vuoi il percorso diretto di fatturazione/limiti OpenAI Platform, usa openai/* con una chiave API.Supportate l’autenticazione con abbonamento OpenAI (Codex OAuth)?
Supportate l’autenticazione con abbonamento OpenAI (Codex OAuth)?
Come configuro Gemini CLI OAuth?
Come configuro Gemini CLI OAuth?
openclaw.json.Passaggi:- Installa Gemini CLI localmente così
geminiè nelPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Abilita il Plugin:
openclaw plugins enable google - Accedi:
openclaw models auth login --provider google-gemini-cli --set-default - Modello predefinito dopo il login:
google-gemini-cli/gemini-3-flash-preview - Se le richieste falliscono, imposta
GOOGLE_CLOUD_PROJECToppureGOOGLE_CLOUD_PROJECT_IDsull’host del gateway
Un modello locale va bene per chat casuali?
Un modello locale va bene per chat casuali?
Come faccio a mantenere il traffico verso modelli hosted in una regione specifica?
Come faccio a mantenere il traffico verso modelli hosted in una regione specifica?
models.mode: "merge" così i fallback restano disponibili rispettando il provider con regione che selezioni.Devo comprare un Mac Mini per installarlo?
Devo comprare un Mac Mini per installarlo?
Mi serve un Mac mini per il supporto iMessage?
Mi serve un Mac mini per il supporto iMessage?
- Esegui il Gateway su Linux/VPS, ed esegui il server BlueBubbles su qualsiasi Mac con accesso a Messages.
- Esegui tutto sul Mac se vuoi la configurazione singola più semplice.
Se compro un Mac mini per eseguire OpenClaw, posso collegarlo al mio MacBook Pro?
Se compro un Mac mini per eseguire OpenClaw, posso collegarlo al mio MacBook Pro?
system.run su quel dispositivo.Pattern comune:- Gateway sul Mac mini (sempre acceso).
- Il MacBook Pro esegue l’app macOS o un host Node e si associa al Gateway.
- Usa
openclaw nodes status/openclaw nodes listper vederlo.
Posso usare Bun?
Posso usare Bun?
Telegram: cosa va messo in allowFrom?
Telegram: cosa va messo in allowFrom?
channels.telegram.allowFrom è l’ID utente Telegram umano del mittente (numerico). Non è lo username del bot.La configurazione iniziale chiede solo ID utente numerici. Se hai già voci legacy @username in configurazione, openclaw doctor --fix può provare a risolverle.Più sicuro (senza bot di terze parti):- Invia un DM al tuo bot, poi esegui
openclaw logs --followe leggifrom.id.
- Invia un DM al tuo bot, poi chiama
https://api.telegram.org/bot<bot_token>/getUpdatese leggimessage.from.id.
- Invia un DM a
@userinfobotoppure@getidsbot.
Più persone possono usare un numero WhatsApp con istanze OpenClaw diverse?
Più persone possono usare un numero WhatsApp con istanze OpenClaw diverse?
kind: "direct", mittente E.164 come +15551234567) a un diverso agentId, così ogni persona ha il proprio workspace e archivio sessioni. Le risposte arrivano comunque dallo stesso account WhatsApp, e il controllo degli accessi DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) è globale per account WhatsApp. Vedi Instradamento multi-agente e WhatsApp.Posso avere un agente "chat veloce" e un agente "Opus per coding"?
Posso avere un agente "chat veloce" e un agente "Opus per coding"?
Homebrew funziona su Linux?
Homebrew funziona su Linux?
/home/linuxbrew/.linuxbrew/bin (o il tuo prefisso brew) così gli strumenti installati con brew vengano risolti nelle shell non-login.
Le build recenti antepongono anche comuni directory bin utente nei servizi Linux systemd (per esempio ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) e rispettano PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR e FNM_DIR quando impostati.Differenza tra installazione hackable git e installazione npm
Differenza tra installazione hackable git e installazione npm
- Installazione hackable (git): checkout completo del sorgente, modificabile, ideale per contributor. Esegui le build localmente e puoi modificare codice/documentazione.
- Installazione npm: installazione globale della CLI, nessun repository, ideale per “basta eseguirlo”. Gli aggiornamenti arrivano dai dist-tag npm.
Posso passare più tardi tra installazioni npm e git?
Posso passare più tardi tra installazioni npm e git?
~/.openclaw) e il workspace (~/.openclaw/workspace) restano intatti.Da npm a git:--repair in automazione).Suggerimenti di backup: vedi Strategia di backup.Dovrei eseguire il Gateway sul mio laptop o su un VPS?
Dovrei eseguire il Gateway sul mio laptop o su un VPS?
- Pro: nessun costo server, accesso diretto ai file locali, finestra browser live.
- Contro: sospensione/cadute di rete = disconnessioni, aggiornamenti/riavvii del sistema interrompono, deve restare acceso.
- Pro: sempre acceso, rete stabile, nessun problema di sospensione del laptop, più facile da mantenere in esecuzione.
- Contro: spesso headless (usa screenshot), accesso ai file solo remoto, devi usare SSH per gli aggiornamenti.
Quanto è importante eseguire OpenClaw su una macchina dedicata?
Quanto è importante eseguire OpenClaw su una macchina dedicata?
- Host dedicato (VPS/Mac mini/Pi): sempre acceso, meno interruzioni dovute a sospensione/riavvio, permessi più puliti, più facile da mantenere operativo.
- Laptop/desktop condiviso: va benissimo per test e uso attivo, ma aspettati pause quando la macchina va in sospensione o si aggiorna.
Quali sono i requisiti minimi VPS e l’OS consigliato?
Quali sono i requisiti minimi VPS e l’OS consigliato?
- Minimo assoluto: 1 vCPU, 1GB di RAM, ~500MB di disco.
- Consigliato: 1-2 vCPU, 2GB di RAM o più per margine (log, media, più canali). Gli strumenti Node e l’automazione browser possono richiedere molte risorse.
Posso eseguire OpenClaw in una VM e quali sono i requisiti?
Posso eseguire OpenClaw in una VM e quali sono i requisiti?
- Minimo assoluto: 1 vCPU, 1GB di RAM.
- Consigliato: 2GB di RAM o più se esegui più canali, automazione browser o strumenti media.
- OS: Ubuntu LTS oppure un’altra Debian/Ubuntu moderna.
Correlati
- FAQ — la FAQ principale (modelli, sessioni, gateway, sicurezza, altro)
- Panoramica installazione
- Getting started
- Troubleshooting