Saltar al contenido principal

SGLang

SGLang puede servir modelos de código abierto mediante una API HTTP compatible con OpenAI. OpenClaw puede conectarse a SGLang usando la API openai-completions. OpenClaw también puede descubrir automáticamente los modelos disponibles de SGLang cuando activas esta opción con SGLANG_API_KEY (cualquier valor sirve si tu servidor no aplica autenticación) y no defines una entrada explícita models.providers.sglang.

Primeros pasos

1

Start SGLang

Inicia SGLang con un servidor compatible con OpenAI. Tu URL base debe exponer endpoints /v1 (por ejemplo /v1/models, /v1/chat/completions). SGLang suele ejecutarse en:
  • http://127.0.0.1:30000/v1
2

Set an API key

Cualquier valor sirve si no hay autenticación configurada en tu servidor:
export SGLANG_API_KEY="sglang-local"
3

Run onboarding or set a model directly

openclaw onboard
O configura el modelo manualmente:
{
  agents: {
    defaults: {
      model: { primary: "sglang/your-model-id" },
    },
  },
}

Descubrimiento de modelos (proveedor implícito)

Cuando SGLANG_API_KEY está establecido (o existe un perfil de autenticación) y no defines models.providers.sglang, OpenClaw consultará:
  • GET http://127.0.0.1:30000/v1/models
y convertirá los ids devueltos en entradas de modelo.
Si estableces explícitamente models.providers.sglang, se omite el descubrimiento automático y debes definir los modelos manualmente.

Configuración explícita (modelos manuales)

Usa una configuración explícita cuando:
  • SGLang se ejecute en otro host/puerto.
  • Quieras fijar valores de contextWindow/maxTokens.
  • Tu servidor requiera una clave de API real (o quieras controlar los encabezados).
{
  models: {
    providers: {
      sglang: {
        baseUrl: "http://127.0.0.1:30000/v1",
        apiKey: "${SGLANG_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "your-model-id",
            name: "Modelo SGLang local",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Configuración avanzada

SGLang se trata como un backend /v1 compatible con OpenAI de estilo proxy, no como un endpoint nativo de OpenAI.
BehaviorSGLang
Modelado de solicitudes solo para OpenAINo se aplica
service_tier, store de Responses, indicios de caché de promptNo se envían
Modelado de payload compatible con razonamientoNo se aplica
Encabezados ocultos de atribución (originator, version, User-Agent)No se inyectan en URLs base personalizadas de SGLang
Servidor no accesibleVerifica que el servidor esté en ejecución y responda:
curl http://127.0.0.1:30000/v1/models
Errores de autenticaciónSi las solicitudes fallan con errores de autenticación, establece un SGLANG_API_KEY real que coincida con la configuración de tu servidor, o configura el proveedor explícitamente en models.providers.sglang.
Si ejecutas SGLang sin autenticación, cualquier valor no vacío para SGLANG_API_KEY es suficiente para activar el descubrimiento de modelos.

Relacionado

Selección de modelos

Elegir proveedores, referencias de modelos y comportamiento de failover.

Referencia de configuración

Esquema completo de configuración, incluidas las entradas de proveedor.