Inference CLI
openclaw infer는 provider 기반 추론 워크플로우를 위한 표준 헤드리스 표면입니다.
이 표면은 의도적으로 원시 gateway RPC 이름이나 원시 에이전트 도구 id가 아니라 기능 계열을 노출합니다.
infer를 Skill로 만들기
다음을 복사해 에이전트에 붙여 넣으세요.- 일반적인 사용자 의도를 올바른 infer 하위 명령에 매핑
- 다루는 워크플로우에 대해 몇 가지 표준 infer 예시 포함
- 예시와 제안에서
openclaw infer ...를 우선 사용 - Skill 본문 안에 infer 전체 표면을 다시 문서화하지 않음
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
infer를 사용하는 이유
openclaw infer는 OpenClaw 내부에서 provider 기반 추론 작업을 위한 일관된 하나의 CLI를 제공합니다.
장점:
- 백엔드별 일회성 래퍼를 직접 연결하는 대신, OpenClaw에 이미 구성된 provider와 모델을 사용
- 모델, 이미지, 오디오 전사, TTS, 비디오, 웹, 임베딩 워크플로우를 하나의 명령 트리 아래에서 관리
- 스크립트, 자동화, 에이전트 기반 워크플로우에 안정적인
--json출력 형식 사용 - 작업의 본질이 “추론 실행”일 때 퍼스트파티 OpenClaw 표면 우선 사용
- 대부분의 infer 명령에서 gateway가 없어도 일반적인 로컬 경로 사용 가능
명령 트리
일반적인 작업
이 표는 일반적인 추론 작업을 해당 infer 명령에 매핑합니다.| 작업 | 명령 | 참고 |
|---|---|---|
| 텍스트/모델 프롬프트 실행 | openclaw infer model run --prompt "..." --json | 기본적으로 일반적인 로컬 경로 사용 |
| 이미지 생성 | openclaw infer image generate --prompt "..." --json | 기존 파일에서 시작할 때는 image edit 사용 |
| 이미지 파일 설명 | openclaw infer image describe --file ./image.png --json | --model은 이미지 지원 <provider/model>이어야 함 |
| 오디오 전사 | openclaw infer audio transcribe --file ./memo.m4a --json | --model은 <provider/model>이어야 함 |
| 음성 합성 | openclaw infer tts convert --text "..." --output ./speech.mp3 --json | tts status는 gateway 지향 |
| 비디오 생성 | openclaw infer video generate --prompt "..." --json | |
| 비디오 파일 설명 | openclaw infer video describe --file ./clip.mp4 --json | --model은 <provider/model>이어야 함 |
| 웹 검색 | openclaw infer web search --query "..." --json | |
| 웹 페이지 가져오기 | openclaw infer web fetch --url https://example.com --json | |
| 임베딩 생성 | openclaw infer embedding create --text "..." --json |
동작
openclaw infer ...는 이러한 워크플로우를 위한 기본 CLI 표면입니다.- 출력이 다른 명령이나 스크립트에서 소비될 경우
--json을 사용하세요. - 특정 백엔드가 필요하면
--provider또는--model provider/model을 사용하세요. image describe,audio transcribe,video describe에서는--model이 반드시<provider/model>형식이어야 합니다.image describe에서 명시적인--model은 해당 provider/model을 직접 실행합니다. 모델은 모델 카탈로그 또는 provider config에서 이미지 지원 모델이어야 합니다.- 상태 비저장 실행 명령은 기본적으로 local입니다.
- gateway가 관리하는 상태 명령은 기본적으로 gateway를 사용합니다.
- 일반적인 로컬 경로는 gateway 실행을 요구하지 않습니다.
Model
provider 기반 텍스트 추론 및 모델/provider 검사는model을 사용하세요.
model run은 에이전트 런타임을 재사용하므로 provider/model 재정의가 일반적인 에이전트 실행처럼 동작합니다.model auth login,model auth logout,model auth status는 저장된 provider auth 상태를 관리합니다.
Image
생성, 편집, 설명에는image를 사용하세요.
- 기존 입력 파일에서 시작할 때는
image edit를 사용하세요. image describe에서--model은 이미지 지원<provider/model>이어야 합니다.- 로컬 Ollama 비전 모델의 경우 먼저 모델을 pull하고,
OLLAMA_API_KEY를 예를 들어ollama-local같은 아무 placeholder 값으로 설정하세요. 자세한 내용은 Ollama를 참조하세요.
Audio
파일 전사에는audio를 사용하세요.
audio transcribe는 실시간 세션 관리가 아니라 파일 전사용입니다.--model은<provider/model>이어야 합니다.
TTS
음성 합성 및 TTS provider 상태에는tts를 사용하세요.
tts status는 gateway가 관리하는 TTS 상태를 반영하므로 기본적으로 gateway를 사용합니다.- TTS 동작을 검사하고 구성하려면
tts providers,tts voices,tts set-provider를 사용하세요.
Video
생성 및 설명에는video를 사용하세요.
video describe에서--model은<provider/model>이어야 합니다.
Web
검색 및 가져오기 워크플로우에는web을 사용하세요.
- 사용 가능하고 구성되어 있으며 선택된 provider를 검사하려면
web providers를 사용하세요.
Embedding
벡터 생성 및 임베딩 provider 검사에는embedding을 사용하세요.
JSON 출력
Infer 명령은 공유 envelope 아래에서 JSON 출력을 정규화합니다.okcapabilitytransportprovidermodelattemptsoutputserror
일반적인 함정
참고
openclaw capability ...는openclaw infer ...의 별칭입니다.