Przejdź do głównej treści

CLI Inference

openclaw infer to kanoniczna bezobsługowa powierzchnia dla przepływów pracy inferencji opartych na providerach. Celowo udostępnia rodziny możliwości, a nie surowe nazwy RPC Gateway ani surowe ID narzędzi agentów.

Zamień infer w skill

Skopiuj i wklej to do agenta:
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
Dobry skill oparty na infer powinien:
  • mapować typowe intencje użytkownika na właściwe podpolecenie infer
  • zawierać kilka kanonicznych przykładów infer dla obsługiwanych przepływów pracy
  • preferować openclaw infer ... w przykładach i sugestiach
  • unikać ponownego dokumentowania całej powierzchni infer w treści skilla
Typowy zakres skilla skupionego na infer:
  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Dlaczego warto używać infer

openclaw infer zapewnia jedno spójne CLI dla zadań inferencji opartych na providerach w OpenClaw. Korzyści:
  • Używaj providerów i modeli już skonfigurowanych w OpenClaw zamiast tworzyć jednorazowe wrappery dla każdego backendu.
  • Utrzymuj przepływy pracy dla modeli, obrazów, transkrypcji audio, TTS, wideo, web i embeddingów w jednym drzewie poleceń.
  • Używaj stabilnego kształtu wyjścia --json dla skryptów, automatyzacji i przepływów pracy sterowanych przez agentów.
  • Preferuj pierwszorzędną powierzchnię OpenClaw, gdy zadanie sprowadza się zasadniczo do „uruchom inferencję”.
  • Używaj normalnej ścieżki lokalnej bez konieczności uruchamiania Gateway dla większości poleceń infer.

Drzewo poleceń

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Typowe zadania

Ta tabela mapuje typowe zadania inferencyjne na odpowiadające im polecenia infer.
ZadaniePolecenieUwagi
Uruchom prompt tekstowy/modelowyopenclaw infer model run --prompt "..." --jsonDomyślnie używa normalnej ścieżki lokalnej
Wygeneruj obrazopenclaw infer image generate --prompt "..." --jsonUżyj image edit, gdy zaczynasz od istniejącego pliku
Opisz plik obrazuopenclaw infer image describe --file ./image.png --json--model musi być <provider/model> obsługującym obrazy
Transkrybuj audioopenclaw infer audio transcribe --file ./memo.m4a --json--model musi być <provider/model>
Syntezuj mowęopenclaw infer tts convert --text "..." --output ./speech.mp3 --jsontts status jest zorientowane na Gateway
Wygeneruj wideoopenclaw infer video generate --prompt "..." --json
Opisz plik wideoopenclaw infer video describe --file ./clip.mp4 --json--model musi być <provider/model>
Wyszukaj w webopenclaw infer web search --query "..." --json
Pobierz stronę webopenclaw infer web fetch --url https://example.com --json
Utwórz embeddingiopenclaw infer embedding create --text "..." --json

Zachowanie

  • openclaw infer ... to podstawowa powierzchnia CLI dla tych przepływów pracy.
  • Używaj --json, gdy wynik będzie konsumowany przez inne polecenie lub skrypt.
  • Używaj --provider lub --model provider/model, gdy wymagany jest konkretny backend.
  • Dla image describe, audio transcribe i video describe --model musi mieć postać <provider/model>.
  • Dla image describe jawne --model uruchamia bezpośrednio ten provider/model. Model musi obsługiwać obrazy w katalogu modeli lub konfiguracji providera.
  • Bezstanowe polecenia wykonawcze domyślnie działają lokalnie.
  • Polecenia stanu zarządzanego przez Gateway domyślnie działają przez Gateway.
  • Normalna ścieżka lokalna nie wymaga uruchomionego Gateway.

Model

Używaj model do inferencji tekstowej opartej na providerach oraz inspekcji modeli/providerów.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --provider openai --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.4 --json
Uwagi:
  • model run ponownie wykorzystuje runtime agenta, więc nadpisania providerów/modeli zachowują się jak w zwykłym wykonaniu agenta.
  • model auth login, model auth logout i model auth status zarządzają zapisanym stanem uwierzytelniania providera.

Image

Używaj image do generowania, edycji i opisu.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --json
Uwagi:
  • Używaj image edit, gdy zaczynasz od istniejących plików wejściowych.
  • Dla image describe --model musi być <provider/model> obsługującym obrazy.
  • Dla lokalnych modeli vision Ollama najpierw pobierz model i ustaw OLLAMA_API_KEY na dowolną wartość zastępczą, na przykład ollama-local. Zobacz Ollama.

Audio

Używaj audio do transkrypcji plików.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Uwagi:
  • audio transcribe służy do transkrypcji plików, a nie do zarządzania sesjami realtime.
  • --model musi mieć postać <provider/model>.

TTS

Używaj tts do syntezy mowy i stanu providera TTS.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
Uwagi:
  • tts status domyślnie używa Gateway, ponieważ odzwierciedla stan TTS zarządzany przez Gateway.
  • Używaj tts providers, tts voices i tts set-provider do inspekcji i konfiguracji zachowania TTS.

Video

Używaj video do generowania i opisu.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
Uwagi:
  • Dla video describe --model musi mieć postać <provider/model>.

Web

Używaj web do przepływów pracy wyszukiwania i pobierania.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
Uwagi:
  • Używaj web providers, aby sprawdzić dostępnych, skonfigurowanych i wybranych providerów.

Embedding

Używaj embedding do tworzenia wektorów i inspekcji providerów embeddingów.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

Wyjście JSON

Polecenia infer normalizują wyjście JSON we wspólnej obwiedni:
{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}
Pola najwyższego poziomu są stabilne:
  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

Typowe pułapki

# Źle
openclaw infer media image generate --prompt "friendly lobster"

# Dobrze
openclaw infer image generate --prompt "friendly lobster"
# Źle
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Dobrze
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Uwagi

  • openclaw capability ... to alias dla openclaw infer ....