inferrs สามารถให้บริการโมเดลภายในเครื่องหลัง APIDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
/v1 ที่เข้ากันได้กับ OpenAI ได้ OpenClaw ทำงานกับ inferrs ผ่านเส้นทางทั่วไป openai-completions
| คุณสมบัติ | ค่า |
|---|---|
| รหัสผู้ให้บริการ | inferrs (กำหนดเอง; กำหนดค่าภายใต้ models.providers.inferrs) |
| Plugin | ไม่มี — inferrs ไม่ใช่ Plugin ผู้ให้บริการ OpenClaw ที่รวมมาในชุด |
| ตัวแปรสภาพแวดล้อมสำหรับ Auth | ไม่บังคับ ค่าใดก็ใช้ได้หากเซิร์ฟเวอร์ inferrs ของคุณไม่มี auth |
| API | เข้ากันได้กับ OpenAI (openai-completions) |
| URL ฐานที่แนะนำ | http://127.0.0.1:8080/v1 (หรือที่ใดก็ตามที่เซิร์ฟเวอร์ inferrs ของคุณทำงานอยู่) |
เริ่มต้นใช้งาน
ตัวอย่างการกำหนดค่าแบบเต็ม
ตัวอย่างนี้ใช้ Gemma 4 บนเซิร์ฟเวอร์inferrs ภายในเครื่อง
การเริ่มต้นตามต้องการ
Inferrs ยังสามารถให้ OpenClaw เริ่มทำงานเฉพาะเมื่อเลือกโมเดลinferrs/... ได้ด้วย
เพิ่ม localService ไปยังรายการผู้ให้บริการเดียวกัน:
command ต้องเป็นพาธแบบสมบูรณ์ ใช้ which inferrs บนโฮสต์ Gateway แล้วใส่
พาธนั้นใน config สำหรับข้อมูลอ้างอิงฟิลด์ทั้งหมด โปรดดู
บริการโมเดลภายในเครื่อง
การกำหนดค่าขั้นสูง
เหตุใด requiresStringContent จึงสำคัญ
เหตุใด requiresStringContent จึงสำคัญ
เส้นทาง Chat Completions บางรายการของ OpenClaw จะแปลงส่วนเนื้อหาข้อความล้วนให้เป็นสตริงธรรมดาก่อนส่ง
คำขอ
inferrs ยอมรับเฉพาะ
messages[].content ที่เป็นสตริง ไม่ใช่อาร์เรย์ content-part แบบมีโครงสร้างข้อควรระวังเกี่ยวกับ Gemma และสคีมาเครื่องมือ
ข้อควรระวังเกี่ยวกับ Gemma และสคีมาเครื่องมือ
ชุดผสม การตั้งค่านี้จะปิดพื้นผิวสคีมาเครื่องมือของ OpenClaw สำหรับโมเดล และสามารถลดแรงกดของพรอมป์
ต่อแบ็กเอนด์ภายในเครื่องที่เข้มงวดกว่าได้หากคำขอโดยตรงขนาดเล็กมากยังทำงานได้ แต่รอบ agent ปกติของ OpenClaw ยังคง
แครชภายใน
inferrs + Gemma ปัจจุบันบางชุดยอมรับคำขอ
/v1/chat/completions โดยตรงขนาดเล็ก แต่ยังล้มเหลวกับรอบ agent-runtime แบบเต็มของ OpenClawหากเกิดกรณีนี้ ให้ลองสิ่งนี้ก่อน:inferrs ปัญหาที่เหลือมักเป็นพฤติกรรมของโมเดล/เซิร์ฟเวอร์ต้นทาง
มากกว่าชั้นการขนส่งของ OpenClawการทดสอบ smoke แบบแมนนวล
การทดสอบ smoke แบบแมนนวล
เมื่อตั้งค่าแล้ว ให้ทดสอบทั้งสองชั้น:หากคำสั่งแรกทำงานได้แต่คำสั่งที่สองล้มเหลว ให้ตรวจสอบส่วนการแก้ปัญหาด้านล่าง
พฤติกรรมแบบพร็อกซี
พฤติกรรมแบบพร็อกซี
inferrs ถูกปฏิบัติเป็นแบ็กเอนด์ /v1 ที่เข้ากันได้กับ OpenAI แบบพร็อกซี ไม่ใช่
ปลายทาง OpenAI แบบเนทีฟ- การปรับรูปคำขอเฉพาะ OpenAI แบบเนทีฟจะไม่นำมาใช้ที่นี่
- ไม่มี
service_tier, ไม่มี Responsesstore, ไม่มีคำใบ้ prompt-cache และไม่มี การปรับรูปเพย์โหลด reasoning-compat ของ OpenAI - ส่วนหัวระบุที่มาของ OpenClaw แบบซ่อน (
originator,version,User-Agent) จะไม่ถูกแทรกบน URL ฐานinferrsแบบกำหนดเอง
การแก้ปัญหา
curl /v1/models ล้มเหลว
curl /v1/models ล้มเหลว
inferrs ไม่ได้ทำงานอยู่ เข้าถึงไม่ได้ หรือไม่ได้ผูกกับ
โฮสต์/พอร์ตที่คาดไว้ ตรวจสอบให้แน่ใจว่าเซิร์ฟเวอร์เริ่มทำงานแล้วและกำลังฟังบนที่อยู่ที่คุณ
กำหนดค่าไว้messages[].content คาดว่าจะเป็นสตริง
messages[].content คาดว่าจะเป็นสตริง
ตั้งค่า
compat.requiresStringContent: true ในรายการโมเดล ดู
ส่วน requiresStringContent ด้านบนสำหรับรายละเอียดการเรียก /v1/chat/completions โดยตรงผ่าน แต่ openclaw infer model run ล้มเหลว
การเรียก /v1/chat/completions โดยตรงผ่าน แต่ openclaw infer model run ล้มเหลว
ลองตั้งค่า
compat.supportsTools: false เพื่อปิดพื้นผิวสคีมาเครื่องมือ
ดูข้อควรระวังเกี่ยวกับสคีมาเครื่องมือของ Gemma ด้านบนinferrs ยังแครชในรอบ agent ที่ใหญ่กว่า
inferrs ยังแครชในรอบ agent ที่ใหญ่กว่า
หาก OpenClaw ไม่พบข้อผิดพลาดสคีมาแล้ว แต่
inferrs ยังแครชในรอบ
agent ที่ใหญ่กว่า ให้ถือว่าเป็นข้อจำกัดของ inferrs หรือโมเดลต้นทาง ลด
แรงกดของพรอมป์ หรือเปลี่ยนไปใช้แบ็กเอนด์ภายในเครื่องหรือโมเดลอื่นที่เกี่ยวข้อง
โมเดลภายในเครื่อง
การรัน OpenClaw กับเซิร์ฟเวอร์โมเดลภายในเครื่อง
บริการโมเดลภายในเครื่อง
การเริ่มเซิร์ฟเวอร์โมเดลภายในเครื่องตามต้องการสำหรับผู้ให้บริการที่กำหนดค่าไว้
การแก้ปัญหา Gateway
การดีบักแบ็กเอนด์ภายในเครื่องที่เข้ากันได้กับ OpenAI ซึ่งผ่านการ probe แต่ล้มเหลวในการรัน agent
การเลือกโมเดล
ภาพรวมของผู้ให้บริการทั้งหมด การอ้างอิงโมเดล และพฤติกรรม failover