Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
openclaw infer คือพื้นผิวแบบ headless ตามหลักสำหรับเวิร์กโฟลว์ inference ที่รองรับโดยผู้ให้บริการ
ตั้งใจเปิดเผยตระกูลความสามารถ ไม่ใช่ชื่อ RPC ของ Gateway แบบดิบ และไม่ใช่ id เครื่องมือ agent แบบดิบ
เปลี่ยน infer ให้เป็น Skill
คัดลอกและวางสิ่งนี้ให้ agent:- แมปเจตนาทั่วไปของผู้ใช้ไปยังคำสั่งย่อย infer ที่ถูกต้อง
- มีตัวอย่าง infer ตามหลักสองสามรายการสำหรับเวิร์กโฟลว์ที่ครอบคลุม
- เลือกใช้
openclaw infer ...ในตัวอย่างและคำแนะนำ - หลีกเลี่ยงการทำเอกสารพื้นผิว infer ทั้งหมดซ้ำภายในเนื้อหา Skill
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
ทำไมจึงใช้ infer
openclaw infer ให้ CLI เดียวที่สอดคล้องกันสำหรับงาน inference ที่รองรับโดยผู้ให้บริการภายใน OpenClaw
ประโยชน์:
- ใช้ผู้ให้บริการและโมเดลที่กำหนดค่าไว้แล้วใน OpenClaw แทนการต่อ wrapper เฉพาะกิจสำหรับแต่ละ backend
- เก็บเวิร์กโฟลว์โมเดล รูปภาพ การถอดเสียงเสียงพูด TTS วิดีโอ เว็บ และ embedding ไว้ใต้แผนผังคำสั่งเดียว
- ใช้รูปแบบเอาต์พุต
--jsonที่เสถียรสำหรับสคริปต์ ระบบอัตโนมัติ และเวิร์กโฟลว์ที่ขับเคลื่อนโดย agent - เลือกใช้พื้นผิวของ OpenClaw โดยตรงเมื่อภารกิจมีแก่นคือ “รัน inference”
- ใช้เส้นทาง local ปกติโดยไม่ต้องใช้ Gateway สำหรับคำสั่ง infer ส่วนใหญ่
openclaw infer ... เมื่อการทดสอบผู้ให้บริการระดับต่ำกว่าเป็นสีเขียวแล้ว คำสั่งนี้จะใช้งาน CLI ที่จัดส่งจริง การโหลด config การ resolve agent เริ่มต้น การเปิดใช้งาน Plugin ที่ bundled และ runtime ความสามารถร่วมกันก่อนส่งคำขอไปยังผู้ให้บริการ
แผนผังคำสั่ง
งานทั่วไป
ตารางนี้แมปงาน inference ทั่วไปกับคำสั่ง infer ที่เกี่ยวข้อง| งาน | คำสั่ง | หมายเหตุ |
|---|---|---|
| รัน prompt ข้อความ/โมเดล | openclaw infer model run --prompt "..." --json | ใช้เส้นทาง local ปกติโดยค่าเริ่มต้น |
| รัน prompt โมเดลกับรูปภาพ | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model | ใช้ --file ซ้ำสำหรับอินพุตรูปภาพหลายรายการ |
| สร้างรูปภาพ | openclaw infer image generate --prompt "..." --json | ใช้ image edit เมื่อเริ่มจากไฟล์ที่มีอยู่แล้ว |
| อธิบายไฟล์รูปภาพ | openclaw infer image describe --file ./image.png --prompt "..." --json | --model ต้องเป็น <provider/model> ที่รองรับรูปภาพ |
| ถอดเสียงเสียงพูด | openclaw infer audio transcribe --file ./memo.m4a --json | --model ต้องเป็น <provider/model> |
| สังเคราะห์เสียงพูด | openclaw infer tts convert --text "..." --output ./speech.mp3 --json | tts status มุ่งเน้น Gateway |
| สร้างวิดีโอ | openclaw infer video generate --prompt "..." --json | รองรับคำใบ้ของผู้ให้บริการ เช่น --resolution |
| อธิบายไฟล์วิดีโอ | openclaw infer video describe --file ./clip.mp4 --json | --model ต้องเป็น <provider/model> |
| ค้นหาเว็บ | openclaw infer web search --query "..." --json | |
| ดึงหน้าเว็บ | openclaw infer web fetch --url https://example.com --json | |
| สร้าง embeddings | openclaw infer embedding create --text "..." --json |
พฤติกรรม
openclaw infer ...คือพื้นผิว CLI หลักสำหรับเวิร์กโฟลว์เหล่านี้- ใช้
--jsonเมื่อเอาต์พุตจะถูกใช้โดยคำสั่งหรือสคริปต์อื่น - ใช้
--providerหรือ--model provider/modelเมื่อจำเป็นต้องใช้ backend เฉพาะ - ใช้
model run --thinking <level>เพื่อส่งระดับ thinking/reasoning แบบครั้งเดียว (off,minimal,low,medium,high,adaptive,xhigh, หรือmax) โดยยังคงให้การรันเป็นแบบดิบ - สำหรับ
image describe,audio transcribe, และvideo describe,--modelต้องใช้รูปแบบ<provider/model> - สำหรับ
image describeการระบุ--modelอย่างชัดเจนจะรันผู้ให้บริการ/โมเดลนั้นโดยตรง โมเดลต้องรองรับรูปภาพในแค็ตตาล็อกโมเดลหรือ config ของผู้ให้บริการcodex/<model>จะรันเทิร์นการทำความเข้าใจรูปภาพของแอปเซิร์ฟเวอร์ Codex แบบมีขอบเขต;openai-codex/<model>ใช้เส้นทางผู้ให้บริการ OpenAI Codex OAuth - คำสั่งการทำงานแบบ stateless มีค่าเริ่มต้นเป็น local
- คำสั่ง state ที่จัดการโดย Gateway มีค่าเริ่มต้นเป็น Gateway
- เส้นทาง local ปกติไม่จำเป็นต้องมี Gateway กำลังรันอยู่
model runแบบ local คือการ completion ของผู้ให้บริการแบบครั้งเดียวที่บางเบา โดยจะ resolve โมเดลและ auth ของ agent ที่กำหนดค่าไว้ แต่จะไม่เริ่มเทิร์น chat-agent, โหลดเครื่องมือ, หรือเปิดเซิร์ฟเวอร์ MCP ที่ bundledmodel run --fileรับไฟล์รูปภาพ ตรวจจับชนิด MIME และส่งไฟล์เหล่านั้นพร้อม prompt ที่ให้มาไปยังโมเดลที่เลือก ใช้--fileซ้ำสำหรับหลายรูปภาพmodel run --fileปฏิเสธอินพุตที่ไม่ใช่รูปภาพ ใช้infer audio transcribeสำหรับไฟล์เสียง และinfer video describeสำหรับไฟล์วิดีโอmodel run --gatewayทดสอบการ routing ของ Gateway, auth ที่บันทึกไว้, การเลือกผู้ให้บริการ และ runtime ที่ฝังไว้ แต่ยังคงรันเป็น probe โมเดลดิบ: ส่ง prompt ที่ให้มาและไฟล์แนบรูปภาพใด ๆ โดยไม่มี transcript เซสชันก่อนหน้า, บริบท bootstrap/AGENTS, การประกอบ context-engine, เครื่องมือ, หรือเซิร์ฟเวอร์ MCP ที่ bundledmodel run --gateway --model <provider/model>ต้องใช้ credential ของ Gateway สำหรับผู้ปฏิบัติการที่เชื่อถือได้ เพราะคำขอขอให้ Gateway รันการ override ผู้ให้บริการ/โมเดลแบบครั้งเดียวmodel run --thinkingแบบ local ใช้เส้นทาง provider-completion ที่บางเบา; ระดับเฉพาะของผู้ให้บริการ เช่นadaptiveและmaxจะถูกแมปไปยังระดับ simple-completion แบบพกพาที่ใกล้ที่สุด
โมเดล
ใช้model สำหรับ inference ข้อความที่รองรับโดยผู้ให้บริการ และการตรวจสอบโมเดล/ผู้ให้บริการ
<provider/model> เพื่อ smoke-test ผู้ให้บริการเฉพาะโดยไม่ต้องเริ่ม Gateway หรือโหลดพื้นผิวเครื่องมือ agent ทั้งหมด:
model runแบบ local คือ CLI smoke ที่แคบที่สุดสำหรับสุขภาพของผู้ให้บริการ/โมเดล/auth เพราะสำหรับผู้ให้บริการที่ไม่ใช่ Codex จะส่งเฉพาะ prompt ที่ให้มาไปยังโมเดลที่เลือกmodel run --model <provider/model>แบบ local สามารถใช้แถวแค็ตตาล็อกสแตติกที่ bundled แบบตรงตัวจากmodels list --allก่อนที่ผู้ให้บริการนั้นจะถูกเขียนลง config ได้ ยังคงต้องใช้ auth ของผู้ให้บริการ; credential ที่ขาดหายจะล้มเหลวเป็นข้อผิดพลาด auth ไม่ใช่Unknown model- สำหรับ probe reasoning ของ Mistral Medium 3.5 ให้ปล่อย temperature เป็น unset/default Mistral ปฏิเสธ
reasoning_effort="high"ร่วมกับtemperature: 0; ใช้mistral/mistral-medium-3-5พร้อม temperature เริ่มต้น หรือค่าของโหมด reasoning ที่ไม่เป็นศูนย์ เช่น0.7 - probe แบบ local ของ
openai-codex/*เป็นข้อยกเว้นแคบ ๆ: OpenClaw เพิ่มคำสั่งระบบขั้นต่ำ เพื่อให้ transport ของ Codex Responses เติมฟิลด์instructionsที่จำเป็นได้ โดยไม่เพิ่มบริบท agent เต็ม เครื่องมือ หน่วยความจำ หรือ transcript เซสชัน model run --fileแบบ local คงเส้นทางที่บางเบานั้นไว้ และแนบเนื้อหารูปภาพโดยตรงไปยังข้อความผู้ใช้เดียว ไฟล์รูปภาพทั่วไป เช่น PNG, JPEG และ WebP ใช้งานได้เมื่อชนิด MIME ถูกตรวจพบเป็นimage/*; ไฟล์ที่ไม่รองรับหรือไม่รู้จักจะล้มเหลวก่อนเรียกผู้ให้บริการmodel run --fileเหมาะที่สุดเมื่อคุณต้องการทดสอบโมเดลข้อความ multimodal ที่เลือกโดยตรง ใช้infer image describeเมื่อคุณต้องการการเลือกผู้ให้บริการสำหรับการทำความเข้าใจรูปภาพของ OpenClaw และ routing โมเดลรูปภาพเริ่มต้น- โมเดลที่เลือกต้องรองรับอินพุตรูปภาพ; โมเดลที่รองรับเฉพาะข้อความอาจปฏิเสธคำขอที่ชั้นผู้ให้บริการ
model run --promptต้องมีข้อความที่ไม่ใช่ whitespace; prompt ว่างจะถูกปฏิเสธก่อนเรียกผู้ให้บริการ local หรือ Gatewaymodel runแบบ local ออกด้วยสถานะไม่เป็นศูนย์เมื่อผู้ให้บริการไม่ส่งคืนเอาต์พุตข้อความ ดังนั้นผู้ให้บริการ local ที่เข้าถึงไม่ได้และ completion ว่างจะไม่ดูเหมือน probe ที่สำเร็จ- ใช้
model run --gatewayเมื่อคุณต้องทดสอบการ routing ของ Gateway, การตั้งค่า agent-runtime, หรือ state ของผู้ให้บริการที่จัดการโดย Gateway โดยคงอินพุตโมเดลให้เป็นแบบดิบ ใช้openclaw agentหรือพื้นผิวแชตเมื่อคุณต้องการบริบท agent เต็ม เครื่องมือ หน่วยความจำ และ transcript เซสชัน model auth login,model auth logout, และmodel auth statusจัดการ state auth ของผู้ให้บริการที่บันทึกไว้
รูปภาพ
ใช้image สำหรับการสร้าง การแก้ไข และคำอธิบาย
-
ใช้
image editเมื่อเริ่มจากไฟล์อินพุตที่มีอยู่ -
ใช้
--size,--aspect-ratioหรือ--resolutionกับimage editสำหรับ providers/models ที่รองรับคำใบ้ด้านเรขาคณิตในการแก้ไขรูปภาพอ้างอิง -
ใช้
--output-format png --background transparentกับ--model openai/gpt-image-1.5สำหรับเอาต์พุต PNG พื้นหลังโปร่งใสของ OpenAI;--openai-backgroundยังคงใช้ได้ในฐานะนามแฝงเฉพาะของ OpenAI Providers ที่ไม่ได้ประกาศการรองรับพื้นหลังจะรายงานคำใบ้นี้เป็นการแทนที่ที่ถูกละเว้น -
ใช้
image providers --jsonเพื่อตรวจสอบว่า providers รูปภาพที่มาพร้อมชุดติดตั้งใด สามารถค้นพบได้ กำหนดค่าแล้ว ถูกเลือก และแต่ละ provider เปิดเผยความสามารถ ในการสร้าง/แก้ไขใดบ้าง -
ใช้
image generate --model <provider/model> --jsonเป็น CLI smoke แบบ live ที่แคบที่สุดสำหรับการเปลี่ยนแปลงการสร้างรูปภาพ ตัวอย่าง:การตอบกลับ JSON จะรายงานok,provider,model,attemptsและพาธเอาต์พุต ที่เขียนไว้ เมื่อกำหนด--outputนามสกุลสุดท้ายอาจเป็นไปตามชนิด MIME ที่ provider ส่งกลับ -
สำหรับ
image describeและimage describe-manyให้ใช้--promptเพื่อให้คำสั่งเฉพาะงานแก่โมเดล vision เช่น OCR การเปรียบเทียบ การตรวจสอบ UI หรือการสร้างคำบรรยายสั้นๆ -
ใช้
--timeout-msกับโมเดล vision ในเครื่องที่ช้า หรือการเริ่มต้น Ollama แบบเย็น -
สำหรับ
image describe,--modelต้องเป็น<provider/model>ที่รองรับรูปภาพ -
สำหรับโมเดล vision ของ Ollama ในเครื่อง ให้ pull โมเดลก่อนและตั้งค่า
OLLAMA_API_KEYเป็นค่าตัวแทนใดก็ได้ เช่นollama-localดู Ollama
เสียง
ใช้audio สำหรับการถอดเสียงไฟล์
audio transcribeใช้สำหรับการถอดเสียงไฟล์ ไม่ใช่การจัดการเซสชันแบบเรียลไทม์--modelต้องเป็น<provider/model>
TTS
ใช้tts สำหรับการสังเคราะห์เสียงพูดและสถานะของ provider TTS
tts statusมีค่าเริ่มต้นเป็น gateway เพราะสะท้อนสถานะ TTS ที่ Gateway จัดการ- ใช้
tts providers,tts voicesและtts set-providerเพื่อตรวจสอบและกำหนดค่าพฤติกรรม TTS
วิดีโอ
ใช้video สำหรับการสร้างและคำอธิบาย
video generateรับ--size,--aspect-ratio,--resolution,--duration,--audio,--watermarkและ--timeout-msแล้วส่งต่อไปยังรันไทม์การสร้างวิดีโอ--modelต้องเป็น<provider/model>สำหรับvideo describe
เว็บ
ใช้web สำหรับเวิร์กโฟลว์การค้นหาและดึงข้อมูล
- ใช้
web providersเพื่อตรวจสอบ providers ที่มีอยู่ กำหนดค่าแล้ว และถูกเลือก
การฝังเวกเตอร์
ใช้embedding สำหรับการสร้างเวกเตอร์และการตรวจสอบ provider embedding
เอาต์พุต JSON
คำสั่ง Infer ทำให้เอาต์พุต JSON อยู่ในซองร่วมที่เป็นมาตรฐาน:okcapabilitytransportprovidermodelattemptsoutputserror
outputs จะมีไฟล์ที่ OpenClaw เขียนไว้ ใช้
path, mimeType, size และมิติที่เฉพาะกับสื่อใดๆ ในอาร์เรย์นั้น
สำหรับระบบอัตโนมัติ แทนการแยกวิเคราะห์ stdout ที่มนุษย์อ่านได้
ข้อผิดพลาดที่พบบ่อย
หมายเหตุ
openclaw capability ...เป็นนามแฝงของopenclaw infer ...