메인 콘텐츠로 건너뛰기

Inference CLI

openclaw infer는 provider 기반 추론 워크플로우를 위한 표준 헤드리스 표면입니다. 이 표면은 의도적으로 원시 gateway RPC 이름이나 원시 에이전트 도구 id가 아니라 기능 계열을 노출합니다.

infer를 Skill로 만들기

다음을 복사해 에이전트에 붙여 넣으세요.
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
좋은 infer 기반 Skill은 다음을 수행해야 합니다.
  • 일반적인 사용자 의도를 올바른 infer 하위 명령에 매핑
  • 다루는 워크플로우에 대해 몇 가지 표준 infer 예시 포함
  • 예시와 제안에서 openclaw infer ...를 우선 사용
  • Skill 본문 안에 infer 전체 표면을 다시 문서화하지 않음
일반적인 infer 중심 Skill 범위:
  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

infer를 사용하는 이유

openclaw infer는 OpenClaw 내부에서 provider 기반 추론 작업을 위한 일관된 하나의 CLI를 제공합니다. 장점:
  • 백엔드별 일회성 래퍼를 직접 연결하는 대신, OpenClaw에 이미 구성된 provider와 모델을 사용
  • 모델, 이미지, 오디오 전사, TTS, 비디오, 웹, 임베딩 워크플로우를 하나의 명령 트리 아래에서 관리
  • 스크립트, 자동화, 에이전트 기반 워크플로우에 안정적인 --json 출력 형식 사용
  • 작업의 본질이 “추론 실행”일 때 퍼스트파티 OpenClaw 표면 우선 사용
  • 대부분의 infer 명령에서 gateway가 없어도 일반적인 로컬 경로 사용 가능

명령 트리

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

일반적인 작업

이 표는 일반적인 추론 작업을 해당 infer 명령에 매핑합니다.
작업명령참고
텍스트/모델 프롬프트 실행openclaw infer model run --prompt "..." --json기본적으로 일반적인 로컬 경로 사용
이미지 생성openclaw infer image generate --prompt "..." --json기존 파일에서 시작할 때는 image edit 사용
이미지 파일 설명openclaw infer image describe --file ./image.png --json--model은 이미지 지원 <provider/model>이어야 함
오디오 전사openclaw infer audio transcribe --file ./memo.m4a --json--model<provider/model>이어야 함
음성 합성openclaw infer tts convert --text "..." --output ./speech.mp3 --jsontts status는 gateway 지향
비디오 생성openclaw infer video generate --prompt "..." --json
비디오 파일 설명openclaw infer video describe --file ./clip.mp4 --json--model<provider/model>이어야 함
웹 검색openclaw infer web search --query "..." --json
웹 페이지 가져오기openclaw infer web fetch --url https://example.com --json
임베딩 생성openclaw infer embedding create --text "..." --json

동작

  • openclaw infer ...는 이러한 워크플로우를 위한 기본 CLI 표면입니다.
  • 출력이 다른 명령이나 스크립트에서 소비될 경우 --json을 사용하세요.
  • 특정 백엔드가 필요하면 --provider 또는 --model provider/model을 사용하세요.
  • image describe, audio transcribe, video describe에서는 --model이 반드시 <provider/model> 형식이어야 합니다.
  • image describe에서 명시적인 --model은 해당 provider/model을 직접 실행합니다. 모델은 모델 카탈로그 또는 provider config에서 이미지 지원 모델이어야 합니다.
  • 상태 비저장 실행 명령은 기본적으로 local입니다.
  • gateway가 관리하는 상태 명령은 기본적으로 gateway를 사용합니다.
  • 일반적인 로컬 경로는 gateway 실행을 요구하지 않습니다.

Model

provider 기반 텍스트 추론 및 모델/provider 검사는 model을 사용하세요.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --provider openai --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.4 --json
참고:
  • model run은 에이전트 런타임을 재사용하므로 provider/model 재정의가 일반적인 에이전트 실행처럼 동작합니다.
  • model auth login, model auth logout, model auth status는 저장된 provider auth 상태를 관리합니다.

Image

생성, 편집, 설명에는 image를 사용하세요.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --json
참고:
  • 기존 입력 파일에서 시작할 때는 image edit를 사용하세요.
  • image describe에서 --model은 이미지 지원 <provider/model>이어야 합니다.
  • 로컬 Ollama 비전 모델의 경우 먼저 모델을 pull하고, OLLAMA_API_KEY를 예를 들어 ollama-local 같은 아무 placeholder 값으로 설정하세요. 자세한 내용은 Ollama를 참조하세요.

Audio

파일 전사에는 audio를 사용하세요.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
참고:
  • audio transcribe는 실시간 세션 관리가 아니라 파일 전사용입니다.
  • --model<provider/model>이어야 합니다.

TTS

음성 합성 및 TTS provider 상태에는 tts를 사용하세요.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
참고:
  • tts status는 gateway가 관리하는 TTS 상태를 반영하므로 기본적으로 gateway를 사용합니다.
  • TTS 동작을 검사하고 구성하려면 tts providers, tts voices, tts set-provider를 사용하세요.

Video

생성 및 설명에는 video를 사용하세요.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
참고:
  • video describe에서 --model<provider/model>이어야 합니다.

Web

검색 및 가져오기 워크플로우에는 web을 사용하세요.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
참고:
  • 사용 가능하고 구성되어 있으며 선택된 provider를 검사하려면 web providers를 사용하세요.

Embedding

벡터 생성 및 임베딩 provider 검사에는 embedding을 사용하세요.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

JSON 출력

Infer 명령은 공유 envelope 아래에서 JSON 출력을 정규화합니다.
{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}
최상위 필드는 안정적입니다.
  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

일반적인 함정

# 잘못된 예
openclaw infer media image generate --prompt "friendly lobster"

# 올바른 예
openclaw infer image generate --prompt "friendly lobster"
# 잘못된 예
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# 올바른 예
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

참고

  • openclaw capability ...openclaw infer ...의 별칭입니다.