Przejdź do głównej treści

SGLang

SGLang może udostępniać modele open source przez API HTTP zgodne z OpenAI. OpenClaw może łączyć się z SGLang przy użyciu API openai-completions. OpenClaw może także automatycznie wykrywać dostępne modele z SGLang, gdy jawnie to włączysz przez SGLANG_API_KEY (dowolna wartość działa, jeśli Twój serwer nie wymusza auth) i nie zdefiniujesz jawnego wpisu models.providers.sglang.

Pierwsze kroki

1

Uruchom SGLang

Uruchom SGLang z serwerem zgodnym z OpenAI. Twój bazowy URL powinien udostępniać endpointy /v1 (na przykład /v1/models, /v1/chat/completions). SGLang często działa pod adresem:
  • http://127.0.0.1:30000/v1
2

Ustaw klucz API

Dowolna wartość działa, jeśli na serwerze nie skonfigurowano auth:
export SGLANG_API_KEY="sglang-local"
3

Uruchom onboarding albo ustaw model bezpośrednio

openclaw onboard
Albo skonfiguruj model ręcznie:
{
  agents: {
    defaults: {
      model: { primary: "sglang/your-model-id" },
    },
  },
}

Wykrywanie modeli (niejawny dostawca)

Gdy SGLANG_API_KEY jest ustawione (albo istnieje profil auth) i nie zdefiniujesz models.providers.sglang, OpenClaw wykona zapytanie:
  • GET http://127.0.0.1:30000/v1/models
i przekształci zwrócone identyfikatory w wpisy modeli.
Jeśli jawnie ustawisz models.providers.sglang, automatyczne wykrywanie zostanie pominięte i musisz ręcznie zdefiniować modele.

Jawna konfiguracja (modele ręczne)

Użyj jawnej konfiguracji, gdy:
  • SGLang działa na innym hoście/porcie.
  • Chcesz przypiąć wartości contextWindow/maxTokens.
  • Twój serwer wymaga prawdziwego klucza API (albo chcesz kontrolować nagłówki).
{
  models: {
    providers: {
      sglang: {
        baseUrl: "http://127.0.0.1:30000/v1",
        apiKey: "${SGLANG_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "your-model-id",
            name: "Lokalny model SGLang",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Konfiguracja zaawansowana

SGLang jest traktowany jako backend /v1 zgodny z OpenAI w stylu proxy, a nie natywny endpoint OpenAI.
ZachowanieSGLang
Kształtowanie żądań tylko dla OpenAINie jest stosowane
service_tier, store w Responses, wskazówki prompt-cacheNie są wysyłane
Kształtowanie payloadów zgodności reasoningNie jest stosowane
Ukryte nagłówki atrybucji (originator, version, User-Agent)Nie są wstrzykiwane przy niestandardowych bazowych URL-ach SGLang
Nie można połączyć się z serweremSprawdź, czy serwer działa i odpowiada:
curl http://127.0.0.1:30000/v1/models
Błędy authJeśli żądania kończą się błędami auth, ustaw prawdziwe SGLANG_API_KEY, które odpowiada konfiguracji serwera, albo skonfiguruj dostawcę jawnie pod models.providers.sglang.
Jeśli uruchamiasz SGLang bez uwierzytelniania, dowolna niepusta wartość SGLANG_API_KEY wystarczy, aby włączyć wykrywanie modeli.

Powiązane

Wybór modelu

Wybór dostawców, odwołań do modeli i zachowania failover.

Informacje o konfiguracji

Pełny schemat konfiguracji, w tym wpisy dostawców.