Inference-CLI
openclaw infer ist die kanonische Headless-Oberfläche für provider-gestützte Inference-Workflows.
Sie stellt bewusst Capability-Familien bereit, nicht rohe Gateway-RPC-Namen und nicht rohe Agent-Tool-IDs.
Infer in einen Skill verwandeln
Kopieren Sie dies und fügen Sie es bei einem Agent ein:- häufige Benutzerabsichten auf den richtigen Infer-Unterbefehl abbilden
- einige kanonische Infer-Beispiele für die von ihm abgedeckten Workflows enthalten
- in Beispielen und Vorschlägen
openclaw infer ...bevorzugen - vermeiden, die gesamte Infer-Oberfläche im Skill-Text erneut zu dokumentieren
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
Warum infer verwenden
openclaw infer bietet eine einheitliche CLI für provider-gestützte Inference-Aufgaben innerhalb von OpenClaw.
Vorteile:
- Verwenden Sie die in OpenClaw bereits konfigurierten Provider und Modelle, anstatt einmalige Wrapper für jedes Backend zu verdrahten.
- Halten Sie Workflows für Modelle, Bilder, Audiotranskription, TTS, Video, Web und Embeddings unter einer einzigen Befehlsstruktur zusammen.
- Verwenden Sie eine stabile
--json-Ausgabeform für Skripte, Automatisierung und agentengesteuerte Workflows. - Bevorzugen Sie eine OpenClaw-Oberfläche erster Klasse, wenn die Aufgabe grundlegend „Inference ausführen“ ist.
- Verwenden Sie den normalen lokalen Pfad, ohne für die meisten Infer-Befehle das Gateway zu benötigen.
Befehlsstruktur
Häufige Aufgaben
Diese Tabelle ordnet häufige Inference-Aufgaben dem entsprechenden Infer-Befehl zu.| Aufgabe | Befehl | Hinweise |
|---|---|---|
| Einen Text-/Modell-Prompt ausführen | openclaw infer model run --prompt "..." --json | Verwendet standardmäßig den normalen lokalen Pfad |
| Ein Bild erzeugen | openclaw infer image generate --prompt "..." --json | Verwenden Sie image edit, wenn Sie von einer vorhandenen Datei ausgehen |
| Eine Bilddatei beschreiben | openclaw infer image describe --file ./image.png --json | --model muss ein bildfähiges <provider/model> sein |
| Audio transkribieren | openclaw infer audio transcribe --file ./memo.m4a --json | --model muss <provider/model> sein |
| Sprache synthetisieren | openclaw infer tts convert --text "..." --output ./speech.mp3 --json | tts status ist Gateway-orientiert |
| Ein Video erzeugen | openclaw infer video generate --prompt "..." --json | |
| Eine Videodatei beschreiben | openclaw infer video describe --file ./clip.mp4 --json | --model muss <provider/model> sein |
| Das Web durchsuchen | openclaw infer web search --query "..." --json | |
| Eine Webseite abrufen | openclaw infer web fetch --url https://example.com --json | |
| Embeddings erstellen | openclaw infer embedding create --text "..." --json |
Verhalten
openclaw infer ...ist die primäre CLI-Oberfläche für diese Workflows.- Verwenden Sie
--json, wenn die Ausgabe von einem anderen Befehl oder Skript verarbeitet wird. - Verwenden Sie
--provideroder--model provider/model, wenn ein bestimmtes Backend erforderlich ist. - Für
image describe,audio transcribeundvideo describemuss--modeldie Form<provider/model>haben. - Für
image describeführt ein explizites--modeldieses Provider-/Modellpaar direkt aus. Das Modell muss im Modellkatalog oder in der Provider-Konfiguration bildfähig sein. - Statuslose Ausführungsbefehle verwenden standardmäßig lokal.
- Gateway-verwaltete Statusbefehle verwenden standardmäßig das Gateway.
- Der normale lokale Pfad erfordert nicht, dass das Gateway läuft.
Model
Verwenden Siemodel für provider-gestützte Text-Inference sowie Modell-/Provider-Inspektion.
model runverwendet die Agent-Runtime erneut, sodass sich Provider-/Modell-Überschreibungen wie bei normaler Agent-Ausführung verhalten.model auth login,model auth logoutundmodel auth statusverwalten den gespeicherten Authentifizierungsstatus des Providers.
Image
Verwenden Sieimage für Erzeugung, Bearbeitung und Beschreibung.
- Verwenden Sie
image edit, wenn Sie von vorhandenen Eingabedateien ausgehen. - Für
image describemuss--modelein bildfähiges<provider/model>sein. - Für lokale Ollama-Vision-Modelle ziehen Sie das Modell zuerst und setzen
OLLAMA_API_KEYauf einen beliebigen Platzhalterwert, zum Beispielollama-local. Siehe Ollama.
Audio
Verwenden Sieaudio für Dateitranskription.
audio transcribeist für Dateitranskription gedacht, nicht für die Verwaltung von Echtzeitsitzungen.--modelmuss<provider/model>sein.
TTS
Verwenden Sietts für Sprachsynthese und den TTS-Provider-Status.
tts statusverwendet standardmäßig das Gateway, weil es den Gateway-verwalteten TTS-Status widerspiegelt.- Verwenden Sie
tts providers,tts voicesundtts set-provider, um das TTS-Verhalten zu prüfen und zu konfigurieren.
Video
Verwenden Sievideo für Erzeugung und Beschreibung.
--modelmuss fürvideo describe<provider/model>sein.
Web
Verwenden Sieweb für Such- und Abruf-Workflows.
- Verwenden Sie
web providers, um verfügbare, konfigurierte und ausgewählte Provider zu prüfen.
Embedding
Verwenden Sieembedding für die Erstellung von Vektoren und die Prüfung von Embedding-Providern.
JSON-Ausgabe
Infer-Befehle normalisieren die JSON-Ausgabe unter einer gemeinsamen Hülle:okcapabilitytransportprovidermodelattemptsoutputserror
Häufige Stolperfallen
Hinweise
openclaw capability ...ist ein Alias füropenclaw infer ....