Passer au contenu principal

LM Studio

LM Studio est une application conviviale mais puissante pour exécuter des modèles à poids ouverts sur votre propre matériel. Elle vous permet d’exécuter des modèles llama.cpp (GGUF) ou MLX (Apple Silicon). Elle est disponible sous forme d’application GUI ou de démon (llmster). Pour la documentation du produit et de la configuration, consultez lmstudio.ai.

Démarrage rapide

  1. Installez LM Studio (desktop) ou llmster (sans interface), puis démarrez le serveur local :
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. Démarrez le serveur
Assurez-vous de lancer soit l’application desktop, soit le démon avec la commande suivante :
lms daemon up
lms server start --port 1234
Si vous utilisez l’application, assurez-vous que JIT est activé pour une expérience fluide. Pour en savoir plus, consultez le guide JIT et TTL de LM Studio.
  1. OpenClaw nécessite une valeur de jeton LM Studio. Définissez LM_API_TOKEN :
export LM_API_TOKEN="your-lm-studio-api-token"
Si l’authentification LM Studio est désactivée, utilisez n’importe quelle valeur de jeton non vide :
export LM_API_TOKEN="placeholder-key"
Pour les détails de configuration de l’authentification LM Studio, consultez Authentification LM Studio.
  1. Exécutez l’onboarding et choisissez LM Studio :
openclaw onboard
  1. Dans l’onboarding, utilisez l’invite Default model pour choisir votre modèle LM Studio.
Vous pouvez également le définir ou le modifier plus tard :
openclaw models set lmstudio/qwen/qwen3.5-9b
Les clés de modèle LM Studio suivent le format author/model-name (par exemple qwen/qwen3.5-9b). Les références de modèle OpenClaw préfixent le nom du fournisseur : lmstudio/qwen/qwen3.5-9b. Vous pouvez trouver la clé exacte d’un modèle en exécutant curl http://localhost:1234/api/v1/models et en consultant le champ key.

Onboarding non interactif

Utilisez l’onboarding non interactif lorsque vous souhaitez automatiser la configuration (CI, provisionnement, bootstrap à distance) :
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio
Ou spécifiez l’URL de base ou le modèle avec une clé API :
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b
--custom-model-id prend la clé du modèle telle que renvoyée par LM Studio (par exemple qwen/qwen3.5-9b), sans le préfixe de fournisseur lmstudio/. L’onboarding non interactif nécessite --lmstudio-api-key (ou LM_API_TOKEN dans l’environnement). Pour les serveurs LM Studio sans authentification, toute valeur de jeton non vide fonctionne. --custom-api-key reste pris en charge pour des raisons de compatibilité, mais --lmstudio-api-key est préféré pour LM Studio. Cela écrit models.providers.lmstudio, définit le modèle par défaut sur lmstudio/<custom-model-id>, et écrit le profil d’authentification lmstudio:default. La configuration interactive peut demander une longueur de contexte de chargement préférée facultative et l’applique aux modèles LM Studio détectés qu’elle enregistre dans la configuration.

Configuration

Configuration explicite

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Dépannage

LM Studio non détecté

Assurez-vous que LM Studio est en cours d’exécution et que vous avez défini LM_API_TOKEN (pour les serveurs sans authentification, toute valeur de jeton non vide fonctionne) :
# Démarrez via l’application desktop ou sans interface :
lms server start --port 1234
Vérifiez que l’API est accessible :
curl http://localhost:1234/api/v1/models

Erreurs d’authentification (HTTP 401)

Si la configuration signale une erreur HTTP 401, vérifiez votre clé API :
  • Vérifiez que LM_API_TOKEN correspond à la clé configurée dans LM Studio.
  • Pour les détails de configuration de l’authentification LM Studio, consultez Authentification LM Studio.
  • Si votre serveur ne nécessite pas d’authentification, utilisez n’importe quelle valeur de jeton non vide pour LM_API_TOKEN.

Chargement de modèle juste-à-temps

LM Studio prend en charge le chargement de modèle juste-à-temps (JIT), où les modèles sont chargés lors de la première requête. Assurez-vous que cette option est activée pour éviter les erreurs « Model not loaded ».