Passer au contenu principal

SGLang

SGLang peut servir des modèles open source via une API HTTP compatible OpenAI. OpenClaw peut se connecter à SGLang en utilisant l’API openai-completions. OpenClaw peut également découvrir automatiquement les modèles disponibles depuis SGLang lorsque vous activez cette option avec SGLANG_API_KEY (n’importe quelle valeur fonctionne si votre serveur n’impose pas d’authentification) et que vous ne définissez pas d’entrée explicite models.providers.sglang.

Prise en main

1

Démarrer SGLang

Lancez SGLang avec un serveur compatible OpenAI. Votre URL de base doit exposer des points de terminaison /v1 (par exemple /v1/models, /v1/chat/completions). SGLang s’exécute généralement sur :
  • http://127.0.0.1:30000/v1
2

Définir une clé API

N’importe quelle valeur fonctionne si aucune authentification n’est configurée sur votre serveur :
export SGLANG_API_KEY="sglang-local"
3

Lancer l'onboarding ou définir directement un modèle

openclaw onboard
Ou configurez le modèle manuellement :
{
  agents: {
    defaults: {
      model: { primary: "sglang/your-model-id" },
    },
  },
}

Découverte de modèles (fournisseur implicite)

Lorsque SGLANG_API_KEY est défini (ou qu’un profil d’authentification existe) et que vous ne définissez pas models.providers.sglang, OpenClaw interrogera :
  • GET http://127.0.0.1:30000/v1/models
et convertira les IDs renvoyés en entrées de modèle.
Si vous définissez explicitement models.providers.sglang, la découverte automatique est ignorée et vous devez définir les modèles manuellement.

Configuration explicite (modèles manuels)

Utilisez une configuration explicite lorsque :
  • SGLang s’exécute sur un autre hôte/port.
  • Vous souhaitez épingler les valeurs contextWindow/maxTokens.
  • Votre serveur exige une vraie clé API (ou vous souhaitez contrôler les en-têtes).
{
  models: {
    providers: {
      sglang: {
        baseUrl: "http://127.0.0.1:30000/v1",
        apiKey: "${SGLANG_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "your-model-id",
            name: "Modèle SGLang local",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Configuration avancée

SGLang est traité comme un backend /v1 compatible OpenAI de type proxy, et non comme un point de terminaison OpenAI natif.
ComportementSGLang
Mise en forme des requêtes réservée à OpenAINon appliquée
service_tier, store de Responses, indices de cache d’inviteNon envoyés
Mise en forme de charge utile compatible raisonnementNon appliquée
En-têtes d’attribution masqués (originator, version, User-Agent)Non injectés sur les URL de base SGLang personnalisées
Serveur inaccessibleVérifiez que le serveur est en cours d’exécution et répond :
curl http://127.0.0.1:30000/v1/models
Erreurs d’authentificationSi les requêtes échouent avec des erreurs d’authentification, définissez une vraie SGLANG_API_KEY correspondant à la configuration de votre serveur, ou configurez explicitement le fournisseur dans models.providers.sglang.
Si vous exécutez SGLang sans authentification, toute valeur non vide pour SGLANG_API_KEY suffit pour activer la découverte de modèles.

Voir aussi

Sélection de modèle

Choisir les fournisseurs, les références de modèles et le comportement de basculement.

Référence de configuration

Schéma de configuration complet, y compris les entrées de fournisseur.