SGLang
SGLangは、OpenAI互換 HTTP API経由でオープンソースmodelを提供できます。 OpenClawはopenai-completions APIを使ってSGLangへ接続できます。
またOpenClawは、SGLANG_API_KEY でオプトインし、
明示的な models.providers.sglang 項目を定義していない場合、
SGLangから利用可能なmodelを自動検出できます(serverがauthを強制しないなら任意の値で動作します)。
クイックスタート
- OpenAI互換server付きでSGLangを起動します。
/v1 endpoint(たとえば /v1/models,
/v1/chat/completions)を公開している必要があります。SGLangは一般に次で動作します:
http://127.0.0.1:30000/v1
- オプトインします(authが設定されていない場合は任意の値で動作):
- オンボーディングを実行して
SGLangを選ぶか、直接modelを設定します:
Model discovery(暗黙provider)
SGLANG_API_KEY が設定されている(またはauth profileが存在する)状態で、
models.providers.sglang を定義していない場合、OpenClawは次を問い合わせます:
GET http://127.0.0.1:30000/v1/models
models.providers.sglang を明示的に設定した場合、自動検出はスキップされ、
modelを手動で定義する必要があります。
明示的設定(手動model)
次の場合は明示的configを使ってください:- SGLangが別のhost/portで動作している。
contextWindow/maxTokensの値を固定したい。- serverが実際のAPI keyを必要とする(またはheaderを制御したい)。
トラブルシューティング
- serverへ到達できるか確認します:
- auth errorでリクエストが失敗する場合は、server設定に一致する実際の
SGLANG_API_KEYを設定するか、models.providers.sglang配下でproviderを明示的に設定してください。
Proxy-style動作
SGLangは、ネイティブなOpenAI endpointではなく、 proxy-styleのOpenAI互換/v1 backendとして扱われます。
- OpenAIネイティブ専用のrequest shapingはここでは適用されません
service_tier、Responsesstore、prompt-cache hint、OpenAI reasoning互換payload shapingはありません- 非表示のOpenClaw attribution header(
originator,version,User-Agent)はcustom SGLang base URLには注入されません