inferrs 可以在 OpenAI 相容的Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
/v1 API 後方提供本機模型服務。OpenClaw 會透過通用的 openai-completions 路徑與 inferrs 搭配運作。
目前最好將 inferrs 視為自訂自託管的 OpenAI 相容後端,而不是專用的 OpenClaw provider plugin。
開始使用
完整設定範例
此範例在本機inferrs 伺服器上使用 Gemma 4。
進階設定
為什麼 requiresStringContent 很重要
為什麼 requiresStringContent 很重要
某些 OpenClaw 會在傳送請求前,將純文字內容部分扁平化為一般字串。
inferrs Chat Completions 路由只接受字串型
messages[].content,不接受結構化的內容部分陣列。Gemma 與工具結構描述注意事項
Gemma 與工具結構描述注意事項
某些目前的 這會停用該模型的 OpenClaw 工具結構描述表面,並可降低較嚴格本機後端的提示壓力。如果極小的直接請求仍可運作,但一般 OpenClaw agent 回合持續在
inferrs + Gemma 組合可接受小型直接
/v1/chat/completions 請求,但在完整的 OpenClaw agent-runtime
回合中仍會失敗。如果發生這種情況,請先嘗試:inferrs 內部當機,剩餘問題通常是上游模型/伺服器行為,而不是 OpenClaw 的傳輸層。手動煙霧測試
手動煙霧測試
設定完成後,測試兩個層級:如果第一個命令可運作但第二個失敗,請查看下方疑難排解章節。
代理式行為
代理式行為
inferrs 會被視為代理式 OpenAI 相容 /v1 後端,而不是原生 OpenAI 端點。- 這裡不適用原生 OpenAI 專用的請求塑形
- 沒有
service_tier、沒有 Responsesstore、沒有提示快取提示,也沒有 OpenAI 推理相容酬載塑形 - 隱藏的 OpenClaw 歸因標頭(
originator、version、User-Agent)不會注入自訂inferrsbase URLs
疑難排解
curl /v1/models 失敗
curl /v1/models 失敗
inferrs 未執行、無法連線,或未繫結到預期的主機/連接埠。請確認伺服器已啟動,並正在你設定的位址上監聽。messages[].content 預期為字串
messages[].content 預期為字串
在模型項目中設定
compat.requiresStringContent: true。詳情請參閱上方 requiresStringContent 章節。直接 /v1/chat/completions 呼叫通過,但 openclaw infer model run 失敗
直接 /v1/chat/completions 呼叫通過,但 openclaw infer model run 失敗
請嘗試設定
compat.supportsTools: false 以停用工具結構描述表面。請參閱上方 Gemma 工具結構描述注意事項。inferrs 在較大的 agent 回合中仍然當機
inferrs 在較大的 agent 回合中仍然當機
如果 OpenClaw 不再收到結構描述錯誤,但
inferrs 在較大的 agent 回合中仍然當機,請將其視為上游 inferrs 或模型限制。降低提示壓力,或改用不同的本機後端或模型。相關內容
本機模型
讓 OpenClaw 對本機模型伺服器執行。
Gateway 疑難排解
偵錯可通過探測但 agent 執行失敗的本機 OpenAI 相容後端。
模型選擇
所有 provider、模型參照和容錯移轉行為的概觀。