Vai al contenuto principale

SGLang

SGLang può esporre modelli open source tramite un’API HTTP compatibile con OpenAI. OpenClaw può connettersi a SGLang usando l’API openai-completions. OpenClaw può anche rilevare automaticamente i modelli disponibili da SGLang se scegli di abilitarlo con SGLANG_API_KEY (qualsiasi valore funziona se il tuo server non impone autenticazione) e non definisci una voce esplicita models.providers.sglang.

Per iniziare

1

Avvia SGLang

Avvia SGLang con un server compatibile con OpenAI. Il tuo URL di base dovrebbe esporre endpoint /v1 (per esempio /v1/models, /v1/chat/completions). SGLang di solito viene eseguito su:
  • http://127.0.0.1:30000/v1
2

Imposta una chiave API

Qualsiasi valore funziona se sul tuo server non è configurata alcuna autenticazione:
export SGLANG_API_KEY="sglang-local"
3

Esegui l'onboarding o imposta direttamente un modello

openclaw onboard
Oppure configura manualmente il modello:
{
  agents: {
    defaults: {
      model: { primary: "sglang/your-model-id" },
    },
  },
}

Rilevamento dei modelli (provider implicito)

Quando SGLANG_API_KEY è impostato (o esiste un profilo di autenticazione) e non definisci models.providers.sglang, OpenClaw interroga:
  • GET http://127.0.0.1:30000/v1/models
e converte gli ID restituiti in voci modello.
Se imposti esplicitamente models.providers.sglang, il rilevamento automatico viene saltato e devi definire i modelli manualmente.

Configurazione esplicita (modelli manuali)

Usa la configurazione esplicita quando:
  • SGLang è in esecuzione su host/porta diversi.
  • Vuoi fissare i valori contextWindow/maxTokens.
  • Il tuo server richiede una vera chiave API (oppure vuoi controllare gli header).
{
  models: {
    providers: {
      sglang: {
        baseUrl: "http://127.0.0.1:30000/v1",
        apiKey: "${SGLANG_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "your-model-id",
            name: "Modello SGLang locale",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Configurazione avanzata

SGLang viene trattato come un backend /v1 compatibile con OpenAI in stile proxy, non come un endpoint OpenAI nativo.
ComportamentoSGLang
Modellamento delle richieste solo OpenAINon applicato
service_tier, Responses store, suggerimenti per la prompt cacheNon inviati
Modellamento del payload di compatibilità del ragionamentoNon applicato
Header di attribuzione nascosti (originator, version, User-Agent)Non iniettati negli URL base SGLang personalizzati
Server non raggiungibileVerifica che il server sia in esecuzione e risponda:
curl http://127.0.0.1:30000/v1/models
Errori di autenticazioneSe le richieste falliscono con errori di autenticazione, imposta una vera SGLANG_API_KEY che corrisponda alla configurazione del tuo server, oppure configura esplicitamente il provider sotto models.providers.sglang.
Se esegui SGLang senza autenticazione, qualsiasi valore non vuoto per SGLANG_API_KEY è sufficiente per abilitare il rilevamento dei modelli.

Correlati

Selezione del modello

Scelta dei provider, riferimenti ai modelli e comportamento di failover.

Riferimento della configurazione

Schema completo della configurazione, incluse le voci provider.