Naar hoofdinhoud gaan

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Quickstart en Q&A voor de eerste uitvoering. Voor dagelijkse werkzaamheden, modellen, auth, sessies, en probleemoplossing zie de hoofd-FAQ.

Quickstart en installatie bij eerste uitvoering

Gebruik een lokale AI-agent die je machine kan zien. Dat is veel effectiever dan vragen in Discord, omdat de meeste gevallen van “ik zit vast” lokale configuratie- of omgevingsproblemen zijn die externe helpers niet kunnen inspecteren.Deze tools kunnen de repo lezen, opdrachten uitvoeren, logs inspecteren en helpen je machine-niveau setup te repareren (PATH, services, rechten, auth-bestanden). Geef ze de volledige source checkout via de hackbare (git) installatie:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Dit installeert OpenClaw vanuit een git checkout, zodat de agent de code + docs kan lezen en kan redeneren over de exacte versie die je draait. Je kunt later altijd terugschakelen naar stable door het installatieprogramma opnieuw uit te voeren zonder --install-method git.Tip: vraag de agent om de fix te plannen en te begeleiden (stap voor stap), en voer daarna alleen de noodzakelijke opdrachten uit. Zo blijven wijzigingen klein en makkelijker te controleren.Als je een echte bug of fix ontdekt, maak dan een GitHub issue aan of stuur een PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pullsBegin met deze opdrachten (deel uitvoer wanneer je om hulp vraagt):
openclaw status
openclaw models status
openclaw doctor
Wat ze doen:
  • openclaw status: snelle momentopname van gateway-/agentgezondheid + basisconfiguratie.
  • openclaw models status: controleert provider-auth + modelbeschikbaarheid.
  • openclaw doctor: valideert en repareert veelvoorkomende configuratie-/statusproblemen.
Andere nuttige CLI-controles: openclaw status --all, openclaw logs --follow, openclaw gateway status, openclaw health --verbose.Snelle debuglus: Eerste 60 seconden als er iets kapot is. Installatiedocs: Installeren, Installer-vlaggen, Bijwerken.
Veelvoorkomende redenen waarom heartbeat overslaat:
  • quiet-hours: buiten het geconfigureerde venster voor actieve uren
  • empty-heartbeat-file: HEARTBEAT.md bestaat, maar bevat alleen lege/header-only scaffolding
  • no-tasks-due: HEARTBEAT.md taakmodus is actief, maar geen van de taakintervallen is al aan de beurt
  • alerts-disabled: alle heartbeat-zichtbaarheid is uitgeschakeld (showOk, showAlerts en useIndicator staan allemaal uit)
In taakmodus worden vervaldatums alleen bijgewerkt nadat een echte heartbeat-run is voltooid. Overgeslagen runs markeren taken niet als voltooid.Docs: Heartbeat, Automatisering en taken.
De repo raadt aan om vanuit source te draaien en onboarding te gebruiken:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
De wizard kan UI-assets ook automatisch bouwen. Na onboarding draai je de Gateway doorgaans op poort 18789.Vanuit source (contributors/dev):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
Als je nog geen globale installatie hebt, voer het dan uit via pnpm openclaw onboard.
De wizard opent direct na onboarding je browser met een schone (niet-getokeniseerde) dashboard-URL en print de link ook in de samenvatting. Houd dat tabblad open; als het niet is gestart, kopieer/plak dan de geprinte URL op dezelfde machine.
Localhost (zelfde machine):
  • Open http://127.0.0.1:18789/.
  • Als er om shared-secret-auth wordt gevraagd, plak je de geconfigureerde token of het wachtwoord in Control UI-instellingen.
  • Tokenbron: gateway.auth.token (of OPENCLAW_GATEWAY_TOKEN).
  • Wachtwoordbron: gateway.auth.password (of OPENCLAW_GATEWAY_PASSWORD).
  • Als er nog geen shared secret is geconfigureerd, genereer dan een token met openclaw doctor --generate-gateway-token.
Niet op localhost:
  • Tailscale Serve (aanbevolen): houd bind loopback, voer openclaw gateway --tailscale serve uit, open https://<magicdns>/. Als gateway.auth.allowTailscale true is, voldoen identity headers aan Control UI-/WebSocket-auth (geen geplakte shared secret, gaat uit van vertrouwde gateway-host); HTTP-API’s vereisen nog steeds shared-secret-auth, tenzij je bewust private-ingress none of trusted-proxy HTTP-auth gebruikt. Slechte gelijktijdige Serve-auth-pogingen van dezelfde client worden geserialiseerd voordat de failed-auth limiter ze registreert, dus de tweede slechte retry kan al retry later tonen.
  • Tailnet bind: voer openclaw gateway --bind tailnet --token "<token>" uit (of configureer wachtwoord-auth), open http://<tailscale-ip>:18789/ en plak vervolgens de bijbehorende shared secret in dashboardinstellingen.
  • Identity-aware reverse proxy: houd de Gateway achter een vertrouwde proxy, configureer gateway.auth.mode: "trusted-proxy" en open daarna de proxy-URL. Same-host loopback-proxy’s vereisen expliciet gateway.auth.trustedProxy.allowLoopback = true.
  • SSH-tunnel: ssh -N -L 18789:127.0.0.1:18789 user@host en open daarna http://127.0.0.1:18789/. Shared-secret-auth blijft gelden via de tunnel; plak de geconfigureerde token of het wachtwoord als daarom wordt gevraagd.
Zie Dashboard en Web-oppervlakken voor bind-modi en auth-details.
Ze regelen verschillende lagen:
  • approvals.exec: stuurt goedkeuringsprompts door naar chatbestemmingen
  • channels.<channel>.execApprovals: laat dat kanaal optreden als native goedkeuringsclient voor exec-goedkeuringen
Het host-execbeleid is nog steeds de echte goedkeuringspoort. Chatconfiguratie bepaalt alleen waar goedkeuringsprompts verschijnen en hoe mensen erop kunnen antwoorden.In de meeste setups heb je niet beide nodig:
  • Als de chat al opdrachten en antwoorden ondersteunt, werkt same-chat /approve via het gedeelde pad.
  • Als een ondersteund native kanaal veilig approvers kan afleiden, schakelt OpenClaw nu automatisch DM-first native goedkeuringen in wanneer channels.<channel>.execApprovals.enabled niet is ingesteld of "auto" is.
  • Wanneer native goedkeuringskaarten/-knoppen beschikbaar zijn, is die native UI het primaire pad; de agent zou alleen een handmatige /approve-opdracht moeten opnemen als het toolresultaat zegt dat chatgoedkeuringen niet beschikbaar zijn of handmatige goedkeuring het enige pad is.
  • Gebruik approvals.exec alleen wanneer prompts ook moeten worden doorgestuurd naar andere chats of expliciete ops-ruimtes.
  • Gebruik channels.<channel>.execApprovals.target: "channel" of "both" alleen wanneer je expliciet wilt dat goedkeuringsprompts terug in de oorspronkelijke ruimte/topic worden geplaatst.
  • Plugin-goedkeuringen zijn opnieuw apart: ze gebruiken standaard same-chat /approve, optioneel approvals.plugin forwarding, en alleen sommige native kanalen houden daarbovenop plugin-approval-native afhandeling.
Korte versie: forwarding is voor routering, native clientconfiguratie is voor rijkere kanaalspecifieke UX. Zie Exec-goedkeuringen.
Node >= 22 is vereist. pnpm wordt aanbevolen. Bun wordt niet aanbevolen voor de Gateway.
Ja. De Gateway is lichtgewicht - de docs vermelden 512MB-1GB RAM, 1 core en ongeveer 500MB schijfruimte als genoeg voor persoonlijk gebruik, en merken op dat een Raspberry Pi 4 het kan draaien.Als je extra speelruimte wilt (logs, media, andere services), wordt 2GB aanbevolen, maar het is geen harde minimumvereiste.Tip: een kleine Pi/VPS kan de Gateway hosten, en je kunt nodes op je laptop/telefoon koppelen voor lokale scherm-/camera-/canvas- of opdrachtuitvoering. Zie Nodes.
Korte versie: het werkt, maar verwacht ruwe randjes.
  • Gebruik een 64-bit OS en houd Node >= 22.
  • Geef de voorkeur aan de hackbare (git) installatie, zodat je logs kunt zien en snel kunt updaten.
  • Begin zonder kanalen/skills en voeg ze daarna een voor een toe.
  • Als je vreemde binary-problemen tegenkomt, is het meestal een ARM-compatibiliteitsprobleem.
Docs: Linux, Installeren.
Dat scherm is afhankelijk van het feit dat de Gateway bereikbaar en geauthenticeerd is. De TUI verzendt ook automatisch “Wake up, my friend!” bij de eerste hatch. Als je die regel ziet met geen antwoord en tokens op 0 blijven staan, heeft de agent nooit gedraaid.
  1. Herstart de Gateway:
openclaw gateway restart
  1. Controleer status + auth:
openclaw status
openclaw models status
openclaw logs --follow
  1. Als het nog steeds hangt, voer uit:
openclaw doctor
Als de Gateway remote is, controleer dan of de tunnel-/Tailscale-verbinding actief is en dat de UI naar de juiste Gateway wijst. Zie Externe toegang.
Ja. Kopieer de statusmap en workspace en voer daarna Doctor eenmaal uit. Dit houdt je bot “exactly the same” (geheugen, sessiegeschiedenis, auth en kanaalstatus) zolang je beide locaties kopieert:
  1. Installeer OpenClaw op de nieuwe machine.
  2. Kopieer $OPENCLAW_STATE_DIR (standaard: ~/.openclaw) vanaf de oude machine.
  3. Kopieer je workspace (standaard: ~/.openclaw/workspace).
  4. Voer openclaw doctor uit en herstart de Gateway-service.
Dat behoudt configuratie, auth-profielen, WhatsApp-creds, sessies en geheugen. Als je in remote modus zit, onthoud dan dat de gateway-host de session store en workspace bezit.Belangrijk: als je alleen je workspace naar GitHub commit/pusht, maak je een back-up van geheugen + bootstrapbestanden, maar niet van sessiegeschiedenis of auth. Die staan onder ~/.openclaw/ (bijvoorbeeld ~/.openclaw/agents/<agentId>/sessions/).Gerelateerd: Migreren, Waar dingen op schijf staan, Agent-workspace, Doctor, Remote modus.
Bekijk de GitHub-changelog: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.mdDe nieuwste vermeldingen staan bovenaan. Als de bovenste sectie is gemarkeerd als Unreleased, is de volgende gedateerde sectie de nieuwste verzonden versie. Vermeldingen zijn gegroepeerd op Highlights, Wijzigingen en Fixes (plus docs/andere secties wanneer nodig).
Sommige Comcast/Xfinity-verbindingen blokkeren docs.openclaw.ai ten onrechte via Xfinity Advanced Security. Schakel het uit of zet docs.openclaw.ai op de allowlist en probeer het opnieuw. Help ons dit te deblokkeren door het hier te melden: https://spa.xfinity.com/check_url_status.Als je de site nog steeds niet kunt bereiken, worden de docs gespiegeld op GitHub: https://github.com/openclaw/openclaw/tree/main/docs
Stabiel en beta zijn npm dist-tags, geen aparte coderegels:
  • latest = stabiel
  • beta = vroege build voor testen
Meestal komt een stabiele release eerst op beta terecht, waarna een expliciete promotiestap diezelfde versie naar latest verplaatst. Maintainers kunnen ook direct naar latest publiceren wanneer dat nodig is. Daarom kunnen beta en stabiel na promotie naar dezelfde versie verwijzen.Bekijk wat er is gewijzigd: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.mdZie de accordion hieronder voor installatie-one-liners en het verschil tussen beta en dev.
Beta is de npm dist-tag beta (kan na promotie overeenkomen met latest). Dev is de bewegende kop van main (git); wanneer gepubliceerd, gebruikt die de npm dist-tag dev.One-liners (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Windows-installatieprogramma (PowerShell): https://openclaw.ai/install.ps1Meer details: Ontwikkelingskanalen en Installatieprogramma-vlaggen.
Twee opties:
  1. Dev-kanaal (git checkout):
openclaw update --channel dev
Dit schakelt over naar de main-branch en werkt bij vanuit de broncode.
  1. Aanpasbare installatie (vanaf de installatiesite):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Dat geeft je een lokale repo die je kunt bewerken en daarna via git kunt bijwerken.Als je liever handmatig een schone clone gebruikt, gebruik dan:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
Docs: Bijwerken, Ontwikkelingskanalen, Installeren.
Ruwe richtlijn:
  • Installatie: 2-5 minuten
  • Onboarding: 5-15 minuten, afhankelijk van hoeveel kanalen/modellen je configureert
Als het blijft hangen, gebruik dan Installatieprogramma loopt vast en de snelle debugloop in Ik zit vast.
Voer het installatieprogramma opnieuw uit met uitgebreide uitvoer:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Beta-installatie met uitgebreide uitvoer:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Voor een aanpasbare (git-)installatie:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Windows-equivalent (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
Meer opties: Installatieprogramma-vlaggen.
Twee veelvoorkomende Windows-problemen:1) npm-fout spawn git / git niet gevonden
  • Installeer Git for Windows en zorg dat git op je PATH staat.
  • Sluit PowerShell en open het opnieuw, en voer daarna het installatieprogramma opnieuw uit.
2) openclaw wordt na installatie niet herkend
  • Je globale npm-binmap staat niet op PATH.
  • Controleer het pad:
    npm config get prefix
    
  • Voeg die map toe aan je gebruikers-PATH (geen \bin-achtervoegsel nodig op Windows; op de meeste systemen is dit %AppData%\npm).
  • Sluit PowerShell en open het opnieuw nadat je PATH hebt bijgewerkt.
Als je de soepelste Windows-configuratie wilt, gebruik dan WSL2 in plaats van native Windows. Docs: Windows.
Dit is meestal een mismatch in de console-codepagina op native Windows-shells.Symptomen:
  • system.run/exec-uitvoer toont Chinees als mojibake
  • Dezelfde opdracht ziet er goed uit in een ander terminalprofiel
Snelle workaround in PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
Herstart daarna de Gateway en probeer je opdracht opnieuw:
openclaw gateway restart
Als je dit nog steeds kunt reproduceren op de nieuwste OpenClaw, volg/meld het dan in:
Gebruik de aanpasbare (git-)installatie zodat je de volledige broncode en docs lokaal hebt, en vraag het daarna aan je bot (of Claude/Codex) vanuit die map zodat die de repo kan lezen en precies kan antwoorden.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Meer details: Installeren en Installatieprogramma-vlaggen.
Kort antwoord: volg de Linux-handleiding en voer daarna onboarding uit.
Elke Linux-VPS werkt. Installeer op de server en gebruik daarna SSH/Tailscale om de Gateway te bereiken.Handleidingen: exe.dev, Hetzner, Fly.io. Externe toegang: Gateway op afstand.
We onderhouden een hostinghub met de gangbare providers. Kies er een en volg de handleiding:Zo werkt het in de cloud: de Gateway draait op de server, en je krijgt er toegang toe vanaf je laptop/telefoon via de Control UI (of Tailscale/SSH). Je status + werkruimte staan op de server, dus behandel de host als de bron van waarheid en maak er een back-up van.Je kunt nodes (Mac/iOS/Android/headless) koppelen aan die cloud-Gateway om toegang te krijgen tot lokaal scherm/camera/canvas of opdrachten op je laptop uit te voeren terwijl de Gateway in de cloud blijft.Hub: Platformen. Externe toegang: Gateway op afstand. Nodes: Nodes, Nodes CLI.
Kort antwoord: mogelijk, niet aanbevolen. De updateflow kan de Gateway herstarten (waardoor de actieve sessie wegvalt), kan een schone git checkout vereisen en kan om bevestiging vragen. Veiliger: voer updates vanuit een shell uit als de operator.Gebruik de CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Als je vanuit een agent moet automatiseren:
openclaw update --yes --no-restart
openclaw gateway restart
Docs: Bijwerken, Bijwerken.
openclaw onboard is het aanbevolen configuratiepad. In lokale modus leidt het je door:
  • Model-/auth-configuratie (provider-OAuth, API-sleutels, Anthropic setup-token, plus lokale modelopties zoals LM Studio)
  • Werkruimte-locatie + bootstrapbestanden
  • Gateway-instellingen (bind/port/auth/tailscale)
  • Kanalen (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, plus gebundelde kanaalplugins zoals QQ Bot)
  • Daemoninstallatie (LaunchAgent op macOS; systemd-gebruikerseenheid op Linux/WSL2)
  • Health checks en skills-selectie
Het waarschuwt ook als je geconfigureerde model onbekend is of authenticatie ontbreekt.
Nee. Je kunt OpenClaw uitvoeren met API-sleutels (Anthropic/OpenAI/anderen) of met alleen-lokale modellen zodat je gegevens op je apparaat blijven. Abonnementen (Claude Pro/Max of OpenAI Codex) zijn optionele manieren om bij die providers te authenticeren.Voor Anthropic in OpenClaw is de praktische verdeling:
  • Anthropic API-sleutel: normale Anthropic API-facturering
  • Claude CLI / Claude-abonnementsauth in OpenClaw: Anthropic-medewerkers hebben ons verteld dat dit gebruik opnieuw is toegestaan, en OpenClaw behandelt claude -p- gebruik als goedgekeurd voor deze integratie tenzij Anthropic een nieuw beleid publiceert
Voor langlopende gatewayhosts blijven Anthropic API-sleutels nog steeds de meer voorspelbare configuratie. OpenAI Codex OAuth wordt expliciet ondersteund voor externe tools zoals OpenClaw.OpenClaw ondersteunt ook andere gehoste abonnementsachtige opties, waaronder Qwen Cloud Coding Plan, MiniMax Coding Plan en Z.AI / GLM Coding Plan.Docs: Anthropic, OpenAI, Qwen Cloud, MiniMax, GLM Models, Lokale modellen, Modellen.
Ja.Anthropic-medewerkers hebben ons verteld dat Claude CLI-gebruik in OpenClaw-stijl opnieuw is toegestaan, dus OpenClaw behandelt Claude-abonnementsauth en claude -p-gebruik als goedgekeurd voor deze integratie tenzij Anthropic een nieuw beleid publiceert. Als je de meest voorspelbare server-side configuratie wilt, gebruik dan in plaats daarvan een Anthropic API-sleutel.
Ja.Anthropic-medewerkers hebben ons verteld dat dit gebruik opnieuw is toegestaan, dus OpenClaw behandelt Claude CLI-hergebruik en claude -p-gebruik als goedgekeurd voor deze integratie tenzij Anthropic een nieuw beleid publiceert.Anthropic setup-token is nog steeds beschikbaar als ondersteund OpenClaw-tokenpad, maar OpenClaw geeft nu de voorkeur aan Claude CLI-hergebruik en claude -p wanneer beschikbaar. Voor productie- of multi-user-workloads is Anthropic API-sleutelauth nog steeds de veiligere, voorspelbaardere keuze. Als je andere abonnementsachtige gehoste opties in OpenClaw wilt, zie OpenAI, Qwen / Model Cloud, MiniMax en GLM Models.
Dat betekent dat je Anthropic-quota/rate limit is uitgeput voor het huidige venster. Als je Claude CLI gebruikt, wacht dan tot het venster wordt gereset of upgrade je abonnement. Als je een Anthropic API-sleutel gebruikt, controleer dan de Anthropic Console voor gebruik/facturering en verhoog limieten indien nodig.Als het bericht specifiek is: Extra usage is required for long context requests, dan probeert de request Anthropic’s 1M-contextbeta (context1m: true) te gebruiken. Dat werkt alleen wanneer je credential in aanmerking komt voor long-context-facturering (API-sleutelfacturering of het OpenClaw Claude-loginpad met Extra Usage ingeschakeld).Tip: stel een fallbackmodel in zodat OpenClaw kan blijven antwoorden terwijl een provider rate-limited is. Zie Modellen, OAuth, en /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
Ja. OpenClaw heeft een gebundelde Amazon Bedrock (Converse)-provider. Wanneer AWS-env-markers aanwezig zijn, kan OpenClaw de streaming-/tekstcatalogus van Bedrock automatisch ontdekken en samenvoegen als impliciete amazon-bedrock-provider; anders kun je plugins.entries.amazon-bedrock.config.discovery.enabled expliciet inschakelen of handmatig een providervermelding toevoegen. Zie Amazon Bedrock en Modelproviders. Als je de voorkeur geeft aan een beheerde sleutelstroom, blijft een OpenAI-compatibele proxy vóór Bedrock een geldige optie.
OpenClaw ondersteunt OpenAI Code (Codex) via OAuth (ChatGPT-aanmelding). Gebruik openai-codex/gpt-5.5 voor Codex OAuth via de standaard PI-runner. Gebruik openai/gpt-5.5 voor directe toegang met een OpenAI-API-sleutel. GPT-5.5 kan ook abonnement/OAuth gebruiken via openai-codex/gpt-5.5 of native Codex-appserver- runs met openai/gpt-5.5 en agentRuntime.id: "codex". Zie Modelproviders en Onboarding (CLI).
openai-codex is de provider- en auth-profiel-id voor ChatGPT/Codex OAuth. Het is ook het expliciete PI-modelvoorvoegsel voor Codex OAuth:
  • openai/gpt-5.5 = huidige directe OpenAI-API-sleutelroute in PI
  • openai-codex/gpt-5.5 = Codex OAuth-route in PI
  • openai/gpt-5.5 + agentRuntime.id: "codex" = native Codex-appserverroute
  • openai-codex:... = auth-profiel-id, geen modelverwijzing
Als je het directe facturerings-/limietpad van OpenAI Platform wilt, stel dan OPENAI_API_KEY in. Als je ChatGPT/Codex-abonnementsauthenticatie wilt, meld je dan aan met openclaw models auth login --provider openai-codex en gebruik openai-codex/*-modelverwijzingen voor PI-runs.
Codex OAuth gebruikt door OpenAI beheerde, planafhankelijke quotavensters. In de praktijk kunnen die limieten verschillen van de ervaring op de ChatGPT-website/app, zelfs wanneer beide aan hetzelfde account zijn gekoppeld.OpenClaw kan de momenteel zichtbare gebruiks-/quotavensters van de provider tonen in openclaw models status, maar het verzint of normaliseert ChatGPT-web- rechten niet naar directe API-toegang. Als je het directe facturerings-/limietpad van OpenAI Platform wilt, gebruik dan openai/* met een API-sleutel.
Ja. OpenClaw ondersteunt OpenAI Code (Codex)-abonnements-OAuth volledig. OpenAI staat abonnements-OAuth-gebruik expliciet toe in externe tools/workflows zoals OpenClaw. Onboarding kan de OAuth-stroom voor je uitvoeren.Zie OAuth, Modelproviders, en Onboarding (CLI).
Gemini CLI gebruikt een plugin-authenticatiestroom, geen client-id of geheim in openclaw.json.Stappen:
  1. Installeer Gemini CLI lokaal zodat gemini op PATH staat
    • Homebrew: brew install gemini-cli
    • npm: npm install -g @google/gemini-cli
  2. Schakel de plugin in: openclaw plugins enable google
  3. Meld je aan: openclaw models auth login --provider google-gemini-cli --set-default
  4. Standaardmodel na aanmelding: google-gemini-cli/gemini-3-flash-preview
  5. Als verzoeken mislukken, stel dan GOOGLE_CLOUD_PROJECT of GOOGLE_CLOUD_PROJECT_ID in op de Gateway-host
Dit bewaart OAuth-tokens in auth-profielen op de Gateway-host. Details: Modelproviders.
Meestal niet. OpenClaw heeft een grote context en sterke veiligheid nodig; kleine kaarten kappen af en lekken. Als het toch moet, draai dan lokaal de grootste modelbuild die je kunt (LM Studio) en zie /gateway/local-models. Kleinere/gekwantiseerde modellen verhogen het risico op promptinjectie - zie Beveiliging.
Kies regio-gebonden endpoints. OpenRouter biedt in de VS gehoste opties voor MiniMax, Kimi en GLM; kies de in de VS gehoste variant om data in de regio te houden. Je kunt Anthropic/OpenAI nog steeds daarnaast vermelden door models.mode: "merge" te gebruiken, zodat fallbacks beschikbaar blijven terwijl de door jou geselecteerde geregionaliseerde provider wordt gerespecteerd.
Nee. OpenClaw draait op macOS of Linux (Windows via WSL2). Een Mac mini is optioneel - sommige mensen kopen er een als altijd-aan host, maar een kleine VPS, homeserver of Raspberry Pi-klasse machine werkt ook.Je hebt alleen een Mac nodig voor tools die uitsluitend op macOS werken. Gebruik voor iMessage BlueBubbles (aanbevolen) - de BlueBubbles-server draait op elke Mac, en de Gateway kan op Linux of elders draaien. Als je andere macOS-only tools wilt, draai de Gateway dan op een Mac of koppel een macOS-node.Docs: BlueBubbles, Nodes, Mac-remote-modus.
Je hebt een macOS-apparaat nodig dat is aangemeld bij Berichten. Dat hoeft geen Mac mini te zijn - elke Mac werkt. Gebruik BlueBubbles (aanbevolen) voor iMessage - de BlueBubbles-server draait op macOS, terwijl de Gateway op Linux of elders kan draaien.Veelvoorkomende setups:
  • Draai de Gateway op Linux/VPS en draai de BlueBubbles-server op een Mac die is aangemeld bij Berichten.
  • Draai alles op de Mac als je de eenvoudigste setup op één machine wilt.
Docs: BlueBubbles, Nodes, Mac-remote-modus.
Ja. De Mac mini kan de Gateway draaien, en je MacBook Pro kan verbinden als een node (begeleidende apparaat). Nodes draaien de Gateway niet - ze bieden extra mogelijkheden zoals scherm/camera/canvas en system.run op dat apparaat.Veelvoorkomend patroon:
  • Gateway op de Mac mini (altijd aan).
  • MacBook Pro draait de macOS-app of een node-host en koppelt met de Gateway.
  • Gebruik openclaw nodes status / openclaw nodes list om deze te zien.
Docs: Nodes, Nodes CLI.
Bun wordt niet aanbevolen. We zien runtimefouten, vooral met WhatsApp en Telegram. Gebruik Node voor stabiele gateways.Als je toch met Bun wilt experimenteren, doe dat dan op een niet-productie-Gateway zonder WhatsApp/Telegram.
channels.telegram.allowFrom is de Telegram-gebruikers-ID van de menselijke afzender (numeriek). Het is niet de botgebruikersnaam.De setup vraagt alleen om numerieke gebruikers-ID’s. Als je al verouderde @username-vermeldingen in de configuratie hebt, kan openclaw doctor --fix proberen deze op te lossen.Veiliger (geen bot van derden):
  • Stuur je bot een DM, voer daarna openclaw logs --follow uit en lees from.id.
Officiële Bot API:
  • Stuur je bot een DM, roep daarna https://api.telegram.org/bot<bot_token>/getUpdates aan en lees message.from.id.
Derde partij (minder privé):
  • Stuur een DM naar @userinfobot of @getidsbot.
Zie /channels/telegram.
Ja, via multi-agent-routing. Bind de WhatsApp-DM van elke afzender (peer kind: "direct", afzender E.164 zoals +15551234567) aan een andere agentId, zodat iedereen een eigen workspace en sessieopslag krijgt. Antwoorden komen nog steeds van hetzelfde WhatsApp-account, en DM-toegangscontrole (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) is globaal per WhatsApp-account. Zie Multi-Agent Routing en WhatsApp.
Ja. Gebruik multi-agent-routing: geef elke agent een eigen standaardmodel en bind vervolgens inkomende routes (provideraccount of specifieke peers) aan elke agent. Voorbeeldconfiguratie staat in Multi-Agent Routing. Zie ook Modellen en Configuratie.
Ja. Homebrew ondersteunt Linux (Linuxbrew). Snelle setup:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
Als je OpenClaw via systemd draait, zorg er dan voor dat de service-PATH /home/linuxbrew/.linuxbrew/bin (of je brew-prefix) bevat zodat met brew geïnstalleerde tools worden gevonden in niet-login-shells. Recente builds voegen ook veelvoorkomende user-bin-mappen vooraf toe aan Linux-systemd-services (bijvoorbeeld ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) en respecteren PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR en FNM_DIR wanneer deze zijn ingesteld.
  • Hackbare (git-)installatie: volledige source-checkout, bewerkbaar, het beste voor bijdragers. Je draait builds lokaal en kunt code/docs patchen.
  • npm-installatie: globale CLI-installatie, geen repo, het beste voor “gewoon draaien.” Updates komen uit npm-dist-tags.
Docs: Aan de slag, Bijwerken.
Ja. Gebruik openclaw update --channel ... wanneer OpenClaw al is geïnstalleerd. Dit verwijdert je data niet - het verandert alleen de OpenClaw-code-installatie. Je status (~/.openclaw) en workspace (~/.openclaw/workspace) blijven onaangeroerd.Van npm naar git:
openclaw update --channel dev
Van git naar npm:
openclaw update --channel stable
Voeg --dry-run toe om eerst de geplande moduswissel te bekijken. De updater voert Doctor-vervolgstappen uit, ververst pluginbronnen voor het doelkanaal en herstart de Gateway tenzij je --no-restart meegeeft.De installer kan beide modi ook afdwingen:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
Back-uptips: zie Back-upstrategie.
Kort antwoord: als je 24/7-betrouwbaarheid wilt, gebruik dan een VPS. Als je de minste frictie wilt en slaapstand/herstarts geen probleem vindt, draai hem dan lokaal.Laptop (lokale Gateway)
  • Voordelen: geen serverkosten, directe toegang tot lokale bestanden, live browservenster.
  • Nadelen: slaapstand/netwerkuitval = verbroken verbindingen, OS-updates/herstarts onderbreken, moet wakker blijven.
VPS / cloud
  • Voordelen: altijd aan, stabiel netwerk, geen problemen met laptopslaapstand, eenvoudiger draaiend te houden.
  • Nadelen: draait vaak headless (gebruik screenshots), alleen externe bestandstoegang, je moet SSH gebruiken voor updates.
OpenClaw-specifieke opmerking: WhatsApp/Telegram/Slack/Mattermost/Discord werken allemaal prima vanaf een VPS. De enige echte afweging is headless browser versus een zichtbaar venster. Zie Browser.Aanbevolen standaard: VPS als je eerder Gateway-verbindingsverbrekingen had. Lokaal is ideaal wanneer je de Mac actief gebruikt en lokale bestandstoegang of UI-automatisering met een zichtbare browser wilt.
Niet vereist, maar aanbevolen voor betrouwbaarheid en isolatie.
  • Dedicated host (VPS/Mac mini/Pi): altijd aan, minder onderbrekingen door slaapstand of herstarts, schonere machtigingen, makkelijker draaiend te houden.
  • Gedeelde laptop/desktop: helemaal prima voor testen en actief gebruik, maar verwacht pauzes wanneer de machine in slaapstand gaat of updates uitvoert.
Als je het beste van beide werelden wilt, houd de Gateway dan op een dedicated host en koppel je laptop als een Node voor lokale scherm-/camera-/exec-tools. Zie Nodes. Lees Beveiliging voor beveiligingsrichtlijnen.
OpenClaw is lichtgewicht. Voor een basis-Gateway + één chatkanaal:
  • Absoluut minimum: 1 vCPU, 1 GB RAM, ~500 MB schijf.
  • Aanbevolen: 1-2 vCPU, 2 GB RAM of meer voor extra marge (logs, media, meerdere kanalen). Node-tools en browserautomatisering kunnen veel resources vragen.
Besturingssysteem: gebruik Ubuntu LTS (of een moderne Debian/Ubuntu). Het Linux-installatiepad is daar het best getest.Documentatie: Linux, VPS-hosting.
Ja. Behandel een VM hetzelfde als een VPS: hij moet altijd aan staan, bereikbaar zijn en genoeg RAM hebben voor de Gateway en alle kanalen die je inschakelt.Basisrichtlijnen:
  • Absoluut minimum: 1 vCPU, 1 GB RAM.
  • Aanbevolen: 2 GB RAM of meer als je meerdere kanalen, browserautomatisering of mediatools draait.
  • Besturingssysteem: Ubuntu LTS of een andere moderne Debian/Ubuntu.
Als je Windows gebruikt, is WSL2 de eenvoudigste VM-achtige setup en biedt het de beste compatibiliteit met tooling. Zie Windows, VPS-hosting. Als je macOS in een VM draait, zie macOS-VM.

Gerelateerd