CLI-Setup-Referenz
Diese Seite ist die vollständige Referenz füropenclaw onboard.
Die Kurzfassung findest du unter Onboarding (CLI).
Was der Assistent tut
Der lokale Modus (Standard) führt dich durch:- Modell- und Auth-Setup (OAuth für OpenAI Code subscription, Anthropic Claude CLI oder API-Key sowie Optionen für MiniMax, GLM, Ollama, Moonshot, StepFun und AI Gateway)
- Workspace-Speicherort und Bootstrap-Dateien
- Gateway-Einstellungen (Port, Bind, Auth, Tailscale)
- Channels und Provider (Telegram, WhatsApp, Discord, Google Chat, Mattermost, Signal, BlueBubbles und andere gebündelte Channel-Plugins)
- Daemon-Installation (LaunchAgent, systemd-User-Unit oder native Windows Scheduled Task mit Fallback über den Startup-Ordner)
- Health-Check
- Skills-Setup
Details zum lokalen Ablauf
Erkennung vorhandener Konfiguration
- Falls
~/.openclaw/openclaw.jsonexistiert, wähle Beibehalten, Ändern oder Zurücksetzen. - Ein erneutes Ausführen des Assistenten löscht nichts, außer du wählst ausdrücklich Zurücksetzen (oder übergibst
--reset). - CLI-
--resetverwendet standardmäßigconfig+creds+sessions; verwende--reset-scope full, um zusätzlich den Workspace zu entfernen. - Wenn die Konfiguration ungültig ist oder alte Schlüssel enthält, stoppt der Assistent und fordert dich auf, vor dem Fortfahren
openclaw doctorauszuführen. - Das Zurücksetzen verwendet
trashund bietet folgende Umfänge:- Nur Konfiguration
- Konfiguration + Credentials + Sitzungen
- Vollständiges Zurücksetzen (entfernt auch den Workspace)
Modell und Auth
- Die vollständige Optionsmatrix findest du unter Auth- und Modelloptionen.
Workspace
- Standard
~/.openclaw/workspace(konfigurierbar). - Legt die Workspace-Dateien an, die für das Bootstrap-Ritual beim ersten Start benötigt werden.
- Workspace-Layout: Agent-Workspace.
Gateway
- Fragt nach Port, Bind, Auth-Modus und Tailscale-Exposition.
- Empfohlen: Token-Auth auch bei loopback aktiviert lassen, damit sich lokale WS-Clients authentifizieren müssen.
- Im Token-Modus bietet das interaktive Setup:
- Klartext-Token generieren/speichern (Standard)
- SecretRef verwenden (Opt-in)
- Im Passwort-Modus unterstützt das interaktive Setup ebenfalls die Speicherung als Klartext oder über SecretRef.
- Nicht interaktiver SecretRef-Pfad für Token:
--gateway-token-ref-env <ENV_VAR>.- Erfordert eine nicht leere Env-Var in der Prozessumgebung des Onboardings.
- Kann nicht mit
--gateway-tokenkombiniert werden.
- Deaktiviere Auth nur, wenn du jedem lokalen Prozess vollständig vertraust.
- Nicht-loopback-Binds erfordern weiterhin Auth.
Channels
- WhatsApp: optionaler QR-Login
- Telegram: Bot-Token
- Discord: Bot-Token
- Google Chat: Service-Account-JSON + Webhook-Audience
- Mattermost: Bot-Token + Base-URL
- Signal: optionale
signal-cli-Installation + Kontokonfiguration - BlueBubbles: empfohlen für iMessage; Server-URL + Passwort + Webhook
- iMessage: alter
imsg-CLI-Pfad + DB-Zugriff - DM-Sicherheit: Standard ist Pairing. Die erste DM sendet einen Code; genehmige ihn mit
openclaw pairing approve <channel> <code>oder verwende Allowlists.
Daemon-Installation
- macOS: LaunchAgent
- Erfordert eine eingeloggte Benutzersitzung; für headless verwende einen benutzerdefinierten LaunchDaemon (wird nicht mitgeliefert).
- Linux und Windows über WSL2: systemd-User-Unit
- Der Assistent versucht
loginctl enable-linger <user>, damit das Gateway nach dem Logout weiterläuft. - Kann nach sudo fragen (schreibt nach
/var/lib/systemd/linger); versucht es zuerst ohne sudo.
- Der Assistent versucht
- Natives Windows: zuerst Scheduled Task
- Wenn die Erstellung der Aufgabe verweigert wird, greift OpenClaw auf ein Login-Element pro Benutzer im Startup-Ordner zurück und startet das Gateway sofort.
- Scheduled Tasks bleiben bevorzugt, weil sie besseren Supervisor-Status bieten.
- Laufzeitauswahl: Node (empfohlen; erforderlich für WhatsApp und Telegram). Bun wird nicht empfohlen.
Health-Check
- Startet das Gateway (falls nötig) und führt
openclaw healthaus. openclaw status --deepfügt die Live-Gateway-Health-Prüfung zur Statusausgabe hinzu, einschließlich Channel-Probes, wenn unterstützt.
Skills
- Liest verfügbare Skills und prüft Anforderungen.
- Lässt dich den Node-Manager wählen: npm, pnpm oder bun.
- Installiert optionale Abhängigkeiten (einige verwenden Homebrew unter macOS).
Wenn keine GUI erkannt wird, gibt der Assistent SSH-Port-Forward-Anweisungen für die Control UI aus, statt einen Browser zu öffnen.
Wenn Assets der Control UI fehlen, versucht der Assistent, sie zu bauen; Fallback ist
pnpm ui:build (installiert UI-Abhängigkeiten automatisch).Details zum Remote-Modus
Der Remote-Modus konfiguriert diesen Rechner so, dass er sich mit einem Gateway an einem anderen Ort verbindet.Der Remote-Modus installiert oder verändert nichts auf dem Remote-Host.
- URL des Remote-Gateways (
ws://...) - Token, falls für das Remote-Gateway Auth erforderlich ist (empfohlen)
- Wenn das Gateway nur über loopback erreichbar ist, verwende SSH-Tunneling oder ein Tailnet.
- Discovery-Hinweise:
- macOS: Bonjour (
dns-sd) - Linux: Avahi (
avahi-browse)
- macOS: Bonjour (
Auth- und Modelloptionen
Anthropic API-Key
Anthropic API-Key
Verwendet
ANTHROPIC_API_KEY, falls vorhanden, oder fragt nach einem Key und speichert ihn dann für die Verwendung durch den Daemon.Anthropic Claude CLI
Anthropic Claude CLI
Verwendet einen lokalen Claude-CLI-Login auf dem Gateway-Host wieder und wechselt die Modellauswahl auf eine kanonische Referenz
claude-cli/claude-*.Dies ist ein verfügbarer lokaler Fallback-Pfad in openclaw onboard und
openclaw configure. Für den produktiven Einsatz ist ein Anthropic-API-Key vorzuziehen.- macOS: prüft den Keychain-Eintrag “Claude Code-credentials”
- Linux und Windows: verwendet
~/.claude/.credentials.jsonerneut, falls vorhanden
OpenAI Code subscription (Wiederverwendung von Codex CLI)
OpenAI Code subscription (Wiederverwendung von Codex CLI)
Falls
~/.codex/auth.json existiert, kann der Assistent es wiederverwenden.
Wiederverwendete Credentials von Codex CLI bleiben von Codex CLI verwaltet; bei Ablauf liest OpenClaw
diese Quelle zuerst erneut, und wenn der Provider sie aktualisieren kann, schreibt er
die aktualisierte Credential zurück in den Codex-Speicher, statt selbst die Zuständigkeit
zu übernehmen.OpenAI Code subscription (OAuth)
OpenAI Code subscription (OAuth)
Browser-Ablauf; füge
code#state ein.Setzt agents.defaults.model auf openai-codex/gpt-5.4, wenn kein Modell gesetzt ist oder openai/* verwendet wird.OpenAI API-Key
OpenAI API-Key
Verwendet
OPENAI_API_KEY, falls vorhanden, oder fragt nach einem Key und speichert die Credential dann in Auth-Profilen.Setzt agents.defaults.model auf openai/gpt-5.4, wenn kein Modell gesetzt ist, openai/* oder openai-codex/*.xAI (Grok) API-Key
xAI (Grok) API-Key
Fragt nach
XAI_API_KEY und konfiguriert xAI als Modell-Provider.OpenCode
OpenCode
Fragt nach
OPENCODE_API_KEY (oder OPENCODE_ZEN_API_KEY) und lässt dich den Zen- oder Go-Katalog auswählen.
Setup-URL: opencode.ai/auth.API-Key (generisch)
API-Key (generisch)
Speichert den Key für dich.
Vercel AI Gateway
Vercel AI Gateway
Fragt nach
AI_GATEWAY_API_KEY.
Mehr Details: Vercel AI Gateway.Cloudflare AI Gateway
Cloudflare AI Gateway
Fragt nach Konto-ID, Gateway-ID und
CLOUDFLARE_AI_GATEWAY_API_KEY.
Mehr Details: Cloudflare AI Gateway.MiniMax
MiniMax
Die Konfiguration wird automatisch geschrieben. Der gehostete Standard ist
MiniMax-M2.7; API-Key-Setup verwendet
minimax/..., und OAuth-Setup verwendet minimax-portal/....
Mehr Details: MiniMax.StepFun
StepFun
Die Konfiguration wird automatisch für StepFun Standard oder Step Plan auf China- oder globalen Endpunkten geschrieben.
Standard enthält derzeit
step-3.5-flash, und Step Plan enthält zusätzlich step-3.5-flash-2603.
Mehr Details: StepFun.Synthetic (Anthropic-kompatibel)
Synthetic (Anthropic-kompatibel)
Fragt nach
SYNTHETIC_API_KEY.
Mehr Details: Synthetic.Ollama (Cloud und lokale offene Modelle)
Ollama (Cloud und lokale offene Modelle)
Fragt nach der Base-URL (Standard
http://127.0.0.1:11434) und bietet dann Cloud + Local oder Local an.
Erkennt verfügbare Modelle und schlägt Standards vor.
Mehr Details: Ollama.Moonshot und Kimi Coding
Moonshot und Kimi Coding
Konfigurationen für Moonshot (Kimi K2) und Kimi Coding werden automatisch geschrieben.
Mehr Details: Moonshot AI (Kimi + Kimi Coding).
Benutzerdefinierter Provider
Benutzerdefinierter Provider
Funktioniert mit OpenAI-kompatiblen und Anthropic-kompatiblen Endpunkten.Das interaktive Onboarding unterstützt dieselben Speicheroptionen für API-Keys wie andere API-Key-Abläufe für Provider:
- API-Key jetzt einfügen (Klartext)
- Secret Reference verwenden (Env-Ref oder konfigurierte Provider-Ref, mit Preflight-Validierung)
--auth-choice custom-api-key--custom-base-url--custom-model-id--custom-api-key(optional; greift aufCUSTOM_API_KEYzurück)--custom-provider-id(optional)--custom-compatibility <openai|anthropic>(optional; Standardopenai)
Überspringen
Überspringen
Lässt Auth unkonfiguriert.
- Wähle ein Standardmodell aus den erkannten Optionen oder gib Provider und Modell manuell ein.
- Wenn das Onboarding mit einer Provider-Auth-Choice startet, bevorzugt der Modellpicker
automatisch diesen Provider. Für Volcengine und BytePlus gleicht dieselbe Präferenz
auch deren Coding-Plan-Varianten ab (
volcengine-plan/*,byteplus-plan/*). - Falls dieser Filter für den bevorzugten Provider leer wäre, fällt der Picker auf den vollständigen Katalog zurück, statt keine Modelle anzuzeigen.
- Der Assistent führt eine Modellprüfung aus und warnt, wenn das konfigurierte Modell unbekannt ist oder Auth fehlt.
- Auth-Profile (API-Keys + OAuth):
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - Alter OAuth-Import:
~/.openclaw/credentials/oauth.json
- Das Standardverhalten beim Onboarding speichert API-Keys als Klartextwerte in Auth-Profilen.
--secret-input-mode refaktiviert den Referenzmodus anstelle der Speicherung von Klartext-Keys. Im interaktiven Setup kannst du Folgendes wählen:- Referenz auf eine Umgebungsvariable (zum Beispiel
keyRef: { source: "env", provider: "default", id: "OPENAI_API_KEY" }) - konfigurierte Provider-Referenz (
fileoderexec) mit Provider-Alias + ID
- Referenz auf eine Umgebungsvariable (zum Beispiel
- Der interaktive Referenzmodus führt vor dem Speichern eine schnelle Preflight-Validierung aus.
- Env-Refs: validiert Variablennamen + nicht leeren Wert in der aktuellen Onboarding-Umgebung.
- Provider-Refs: validiert die Provider-Konfiguration und löst die angeforderte ID auf.
- Wenn der Preflight fehlschlägt, zeigt das Onboarding den Fehler und lässt dich es erneut versuchen.
- Im nicht interaktiven Modus ist
--secret-input-mode refnur env-basiert.- Setze die Env-Var des Providers in der Prozessumgebung des Onboardings.
- Inline-Key-Flags (zum Beispiel
--openai-api-key) erfordern, dass diese Env-Var gesetzt ist; andernfalls schlägt das Onboarding sofort fehl. - Für benutzerdefinierte Provider speichert der nicht interaktive Modus
refmodels.providers.<id>.apiKeyals{ source: "env", provider: "default", id: "CUSTOM_API_KEY" }. - In diesem Fall für benutzerdefinierte Provider erfordert
--custom-api-key, dassCUSTOM_API_KEYgesetzt ist; andernfalls schlägt das Onboarding sofort fehl.
- Gateway-Auth-Credentials unterstützen im interaktiven Setup Klartext- und SecretRef-Optionen:
- Token-Modus: Klartext-Token generieren/speichern (Standard) oder SecretRef verwenden.
- Passwort-Modus: Klartext oder SecretRef.
- Nicht interaktiver SecretRef-Pfad für Token:
--gateway-token-ref-env <ENV_VAR>. - Bestehende Klartext-Setups funktionieren unverändert weiter.
Tipp für headless und Server: Schließe OAuth auf einem Rechner mit Browser ab und kopiere dann
die
auth-profiles.json dieses Agenten (zum Beispiel
~/.openclaw/agents/<agentId>/agent/auth-profiles.json oder den entsprechenden
Pfad $OPENCLAW_STATE_DIR/...) auf den Gateway-Host. credentials/oauth.json
ist nur eine alte Importquelle.Ausgaben und Interna
Typische Felder in~/.openclaw/openclaw.json:
agents.defaults.workspaceagents.defaults.model/models.providers(wenn Minimax ausgewählt wurde)tools.profile(lokales Onboarding setzt dies standardmäßig auf"coding", wenn nichts gesetzt ist; bestehende explizite Werte bleiben erhalten)gateway.*(mode, bind, auth, tailscale)session.dmScope(lokales Onboarding setzt dies standardmäßig aufper-channel-peer, wenn nichts gesetzt ist; bestehende explizite Werte bleiben erhalten)channels.telegram.botToken,channels.discord.token,channels.matrix.*,channels.signal.*,channels.imessage.*- Channel-Allowlists (Slack, Discord, Matrix, Microsoft Teams), wenn du sie während der Eingabeaufforderungen aktivierst (Namen werden wenn möglich in IDs aufgelöst)
skills.install.nodeManager- Das Flag
setup --node-managerakzeptiertnpm,pnpmoderbun. - In der manuellen Konfiguration kann später weiterhin
skills.install.nodeManager: "yarn"gesetzt werden.
- Das Flag
wizard.lastRunAtwizard.lastRunVersionwizard.lastRunCommitwizard.lastRunCommandwizard.lastRunMode
openclaw agents add schreibt agents.list[] und optionale bindings.
WhatsApp-Credentials liegen unter ~/.openclaw/credentials/whatsapp/<accountId>/.
Sitzungen werden unter ~/.openclaw/agents/<agentId>/sessions/ gespeichert.
Einige Channels werden als Plugins ausgeliefert. Wenn sie während des Setups ausgewählt werden, fordert der Assistent
dich auf, das Plugin (npm oder lokaler Pfad) vor der Channel-Konfiguration zu installieren.
wizard.startwizard.nextwizard.cancelwizard.status
- Lädt das passende Release-Asset herunter
- Speichert es unter
~/.openclaw/tools/signal-cli/<version>/ - Schreibt
channels.signal.cliPathin die Konfiguration - JVM-Builds erfordern Java 21
- Native Builds werden verwendet, wenn verfügbar
- Windows verwendet WSL2 und folgt dem Linux-
signal-cli-Ablauf innerhalb von WSL
Verwandte Dokumente
- Onboarding-Hub: Onboarding (CLI)
- Automatisierung und Skripte: CLI-Automatisierung
- Befehlsreferenz:
openclaw onboard