SGLang 可以透過 OpenAI 相容 HTTP API 提供開源模型服務。 OpenClaw 可以使用Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
openai-completions API 連線至 SGLang。
當你使用 SGLANG_API_KEY 選擇啟用時(如果你的伺服器未強制驗證,任何值都可使用),且未定義明確的 models.providers.sglang 項目,OpenClaw 也可以從 SGLang 自動探索可用模型。
OpenClaw 會將 sglang 視為支援串流使用量計算的本機 OpenAI 相容提供者,因此狀態/內容 token 計數可以從 stream_options.include_usage 回應更新。
開始使用
啟動 SGLang
以 OpenAI 相容伺服器啟動 SGLang。你的基底 URL 應公開
/v1 端點(例如 /v1/models、/v1/chat/completions)。SGLang
通常執行於:http://127.0.0.1:30000/v1
模型探索(隱含提供者)
當已設定SGLANG_API_KEY(或存在驗證設定檔),且你未
定義 models.providers.sglang 時,OpenClaw 會查詢:
GET http://127.0.0.1:30000/v1/models
如果你明確設定
models.providers.sglang,將會略過自動探索,且
你必須手動定義模型。明確設定(手動模型)
在下列情況使用明確設定:- SGLang 在不同主機/連接埠上執行。
- 你想要固定
contextWindow/maxTokens值。 - 你的伺服器需要真正的 API 金鑰(或你想控制標頭)。
進階設定
Proxy 風格行為
Proxy 風格行為
SGLang 會被視為 Proxy 風格的 OpenAI 相容
/v1 後端,而不是
原生 OpenAI 端點。| 行為 | SGLang |
|---|---|
| 僅限 OpenAI 的請求塑形 | 不套用 |
service_tier、Responses store、提示快取提示 | 不傳送 |
| 推理相容負載塑形 | 不套用 |
隱藏歸因標頭(originator、version、User-Agent) | 不會注入到自訂 SGLang 基底 URL |
疑難排解
疑難排解
無法連線至伺服器確認伺服器正在執行並會回應:驗證錯誤如果請求因驗證錯誤而失敗,請設定與伺服器設定相符的真正
SGLANG_API_KEY,或在
models.providers.sglang 下明確設定提供者。相關內容
模型選擇
選擇提供者、模型參照與容錯移轉行為。
設定參考
包含提供者項目的完整設定結構描述。