CLI Inference
openclaw infer to kanoniczna bezobsługowa powierzchnia dla przepływów pracy inferencji opartych na providerach.
Celowo udostępnia rodziny możliwości, a nie surowe nazwy RPC Gateway ani surowe ID narzędzi agentów.
Zamień infer w skill
Skopiuj i wklej to do agenta:- mapować typowe intencje użytkownika na właściwe podpolecenie infer
- zawierać kilka kanonicznych przykładów infer dla obsługiwanych przepływów pracy
- preferować
openclaw infer ...w przykładach i sugestiach - unikać ponownego dokumentowania całej powierzchni infer w treści skilla
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
Dlaczego warto używać infer
openclaw infer zapewnia jedno spójne CLI dla zadań inferencji opartych na providerach w OpenClaw.
Korzyści:
- Używaj providerów i modeli już skonfigurowanych w OpenClaw zamiast tworzyć jednorazowe wrappery dla każdego backendu.
- Utrzymuj przepływy pracy dla modeli, obrazów, transkrypcji audio, TTS, wideo, web i embeddingów w jednym drzewie poleceń.
- Używaj stabilnego kształtu wyjścia
--jsondla skryptów, automatyzacji i przepływów pracy sterowanych przez agentów. - Preferuj pierwszorzędną powierzchnię OpenClaw, gdy zadanie sprowadza się zasadniczo do „uruchom inferencję”.
- Używaj normalnej ścieżki lokalnej bez konieczności uruchamiania Gateway dla większości poleceń infer.
Drzewo poleceń
Typowe zadania
Ta tabela mapuje typowe zadania inferencyjne na odpowiadające im polecenia infer.| Zadanie | Polecenie | Uwagi |
|---|---|---|
| Uruchom prompt tekstowy/modelowy | openclaw infer model run --prompt "..." --json | Domyślnie używa normalnej ścieżki lokalnej |
| Wygeneruj obraz | openclaw infer image generate --prompt "..." --json | Użyj image edit, gdy zaczynasz od istniejącego pliku |
| Opisz plik obrazu | openclaw infer image describe --file ./image.png --json | --model musi być <provider/model> obsługującym obrazy |
| Transkrybuj audio | openclaw infer audio transcribe --file ./memo.m4a --json | --model musi być <provider/model> |
| Syntezuj mowę | openclaw infer tts convert --text "..." --output ./speech.mp3 --json | tts status jest zorientowane na Gateway |
| Wygeneruj wideo | openclaw infer video generate --prompt "..." --json | |
| Opisz plik wideo | openclaw infer video describe --file ./clip.mp4 --json | --model musi być <provider/model> |
| Wyszukaj w web | openclaw infer web search --query "..." --json | |
| Pobierz stronę web | openclaw infer web fetch --url https://example.com --json | |
| Utwórz embeddingi | openclaw infer embedding create --text "..." --json |
Zachowanie
openclaw infer ...to podstawowa powierzchnia CLI dla tych przepływów pracy.- Używaj
--json, gdy wynik będzie konsumowany przez inne polecenie lub skrypt. - Używaj
--providerlub--model provider/model, gdy wymagany jest konkretny backend. - Dla
image describe,audio transcribeivideo describe--modelmusi mieć postać<provider/model>. - Dla
image describejawne--modeluruchamia bezpośrednio ten provider/model. Model musi obsługiwać obrazy w katalogu modeli lub konfiguracji providera. - Bezstanowe polecenia wykonawcze domyślnie działają lokalnie.
- Polecenia stanu zarządzanego przez Gateway domyślnie działają przez Gateway.
- Normalna ścieżka lokalna nie wymaga uruchomionego Gateway.
Model
Używajmodel do inferencji tekstowej opartej na providerach oraz inspekcji modeli/providerów.
model runponownie wykorzystuje runtime agenta, więc nadpisania providerów/modeli zachowują się jak w zwykłym wykonaniu agenta.model auth login,model auth logoutimodel auth statuszarządzają zapisanym stanem uwierzytelniania providera.
Image
Używajimage do generowania, edycji i opisu.
- Używaj
image edit, gdy zaczynasz od istniejących plików wejściowych. - Dla
image describe--modelmusi być<provider/model>obsługującym obrazy. - Dla lokalnych modeli vision Ollama najpierw pobierz model i ustaw
OLLAMA_API_KEYna dowolną wartość zastępczą, na przykładollama-local. Zobacz Ollama.
Audio
Używajaudio do transkrypcji plików.
audio transcribesłuży do transkrypcji plików, a nie do zarządzania sesjami realtime.--modelmusi mieć postać<provider/model>.
TTS
Używajtts do syntezy mowy i stanu providera TTS.
tts statusdomyślnie używa Gateway, ponieważ odzwierciedla stan TTS zarządzany przez Gateway.- Używaj
tts providers,tts voicesitts set-providerdo inspekcji i konfiguracji zachowania TTS.
Video
Używajvideo do generowania i opisu.
- Dla
video describe--modelmusi mieć postać<provider/model>.
Web
Używajweb do przepływów pracy wyszukiwania i pobierania.
- Używaj
web providers, aby sprawdzić dostępnych, skonfigurowanych i wybranych providerów.
Embedding
Używajembedding do tworzenia wektorów i inspekcji providerów embeddingów.
Wyjście JSON
Polecenia infer normalizują wyjście JSON we wspólnej obwiedni:okcapabilitytransportprovidermodelattemptsoutputserror
Typowe pułapki
Uwagi
openclaw capability ...to alias dlaopenclaw infer ....