Naar hoofdinhoud gaan

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

SGLang kan open-sourcemodellen aanbieden via een OpenAI-compatibele HTTP-API. OpenClaw kan verbinding maken met SGLang met de openai-completions-API. OpenClaw kan beschikbare modellen ook automatisch ontdekken vanuit SGLang wanneer je je aanmeldt met SGLANG_API_KEY (elke waarde werkt als je server geen verificatie afdwingt) en je geen expliciete models.providers.sglang-vermelding definieert. OpenClaw behandelt sglang als een lokale OpenAI-compatibele provider die gestreamde gebruiksregistratie ondersteunt, zodat status-/context-tokentellingen kunnen worden bijgewerkt vanuit stream_options.include_usage-responsen.

Aan de slag

1

SGLang starten

Start SGLang met een OpenAI-compatibele server. Je basis-URL moet /v1-eindpunten aanbieden (bijvoorbeeld /v1/models, /v1/chat/completions). SGLang draait vaak op:
  • http://127.0.0.1:30000/v1
2

Een API-sleutel instellen

Elke waarde werkt als er geen verificatie op je server is geconfigureerd:
export SGLANG_API_KEY="sglang-local"
3

Onboarding uitvoeren of rechtstreeks een model instellen

openclaw onboard
Of configureer het model handmatig:
{
  agents: {
    defaults: {
      model: { primary: "sglang/your-model-id" },
    },
  },
}

Modeldetectie (impliciete provider)

Wanneer SGLANG_API_KEY is ingesteld (of er een verificatieprofiel bestaat) en je geen models.providers.sglang definieert, voert OpenClaw een query uit naar:
  • GET http://127.0.0.1:30000/v1/models
en zet de geretourneerde ID’s om naar modelvermeldingen.
Als je models.providers.sglang expliciet instelt, wordt automatische detectie overgeslagen en moet je modellen handmatig definiëren.

Expliciete configuratie (handmatige modellen)

Gebruik expliciete configuratie wanneer:
  • SGLang op een andere host/poort draait.
  • Je contextWindow-/maxTokens-waarden wilt vastzetten.
  • Je server een echte API-sleutel vereist (of je headers wilt beheren).
{
  models: {
    providers: {
      sglang: {
        baseUrl: "http://127.0.0.1:30000/v1",
        apiKey: "${SGLANG_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "your-model-id",
            name: "Local SGLang Model",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Geavanceerde configuratie

SGLang wordt behandeld als een proxy-achtige OpenAI-compatibele /v1-backend, niet als een native OpenAI-eindpunt.
GedragSGLang
Verzoekvorming alleen voor OpenAINiet toegepast
service_tier, Responses store, prompt-cachehintsNiet verzonden
Payloadvorming voor redeneringscompatibiliteitNiet toegepast
Verborgen attributieheaders (originator, version, User-Agent)Niet geïnjecteerd op aangepaste SGLang-basis-URL’s
Server niet bereikbaarControleer of de server draait en reageert:
curl http://127.0.0.1:30000/v1/models
VerificatiefoutenAls verzoeken mislukken met verificatiefouten, stel dan een echte SGLANG_API_KEY in die overeenkomt met je serverconfiguratie, of configureer de provider expliciet onder models.providers.sglang.
Als je SGLang zonder verificatie uitvoert, is elke niet-lege waarde voor SGLANG_API_KEY voldoende om je aan te melden voor modeldetectie.

Gerelateerd

Modelselectie

Providers, modelverwijzingen en failovergedrag kiezen.

Configuratiereferentie

Volledig configuratieschema inclusief providervermeldingen.