Przejdź do głównej treści

LM Studio

LM Studio to przyjazna, a zarazem potężna aplikacja do uruchamiania modeli o otwartych wagach na własnym sprzęcie. Umożliwia uruchamianie modeli llama.cpp (GGUF) lub MLX (Apple Silicon). Jest dostępna jako pakiet GUI lub daemon bez interfejsu (llmster). Dokumentację produktu i konfiguracji znajdziesz na stronie lmstudio.ai.

Szybki start

  1. Zainstaluj LM Studio (wersja desktopowa) lub llmster (wersja bez interfejsu), a następnie uruchom lokalny serwer:
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. Uruchom serwer
Upewnij się, że uruchamiasz aplikację desktopową albo daemon za pomocą następującego polecenia:
lms daemon up
lms server start --port 1234
Jeśli używasz aplikacji, upewnij się, że masz włączone JIT, aby zapewnić płynne działanie. Więcej informacji znajdziesz w przewodniku LM Studio dotyczącym JIT i TTL.
  1. OpenClaw wymaga wartości tokena LM Studio. Ustaw LM_API_TOKEN:
export LM_API_TOKEN="your-lm-studio-api-token"
Jeśli uwierzytelnianie LM Studio jest wyłączone, użyj dowolnej niepustej wartości tokena:
export LM_API_TOKEN="placeholder-key"
Szczegóły konfiguracji uwierzytelniania LM Studio znajdziesz w LM Studio Authentication.
  1. Uruchom onboarding i wybierz LM Studio:
openclaw onboard
  1. Podczas onboardingu użyj monitu Default model, aby wybrać model LM Studio.
Możesz też ustawić go lub zmienić później:
openclaw models set lmstudio/qwen/qwen3.5-9b
Klucze modeli LM Studio mają format author/model-name (na przykład qwen/qwen3.5-9b). Odwołania do modeli OpenClaw poprzedzają je nazwą dostawcy: lmstudio/qwen/qwen3.5-9b. Dokładny klucz modelu możesz znaleźć, uruchamiając curl http://localhost:1234/api/v1/models i sprawdzając pole key.

Onboarding nieinteraktywny

Użyj nieinteraktywnego onboardingu, jeśli chcesz zautomatyzować konfigurację (CI, provisioning, zdalny bootstrap):
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio
Możesz też podać bazowy URL lub model wraz z kluczem API:
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b
--custom-model-id przyjmuje klucz modelu zwracany przez LM Studio (na przykład qwen/qwen3.5-9b), bez prefiksu dostawcy lmstudio/. Nieinteraktywny onboarding wymaga --lmstudio-api-key (lub LM_API_TOKEN w zmiennych środowiskowych). W przypadku nieuwierzytelnionych serwerów LM Studio działa dowolna niepusta wartość tokena. --custom-api-key nadal jest obsługiwane ze względu na zgodność, ale dla LM Studio zalecane jest --lmstudio-api-key. Spowoduje to zapisanie models.providers.lmstudio, ustawienie domyślnego modelu na lmstudio/<custom-model-id> oraz zapisanie profilu uwierzytelniania lmstudio:default. Konfiguracja interaktywna może poprosić o opcjonalną preferowaną długość kontekstu ładowania i zastosuje ją do wykrytych modeli LM Studio zapisywanych w konfiguracji.

Konfiguracja

Jawna konfiguracja

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Rozwiązywanie problemów

Nie wykryto LM Studio

Upewnij się, że LM Studio jest uruchomione i że ustawiono LM_API_TOKEN (w przypadku serwerów nieuwierzytelnionych działa dowolna niepusta wartość tokena):
# Uruchom przez aplikację desktopową lub bez interfejsu:
lms server start --port 1234
Sprawdź, czy API jest dostępne:
curl http://localhost:1234/api/v1/models

Błędy uwierzytelniania (HTTP 401)

Jeśli podczas konfiguracji pojawia się HTTP 401, sprawdź swój klucz API:
  • Sprawdź, czy LM_API_TOKEN odpowiada kluczowi skonfigurowanemu w LM Studio.
  • Szczegóły konfiguracji uwierzytelniania LM Studio znajdziesz w LM Studio Authentication.
  • Jeśli serwer nie wymaga uwierzytelniania, użyj dowolnej niepustej wartości tokena dla LM_API_TOKEN.

Ładowanie modeli just-in-time

LM Studio obsługuje ładowanie modeli just-in-time (JIT), w którym modele są ładowane przy pierwszym żądaniu. Upewnij się, że ta opcja jest włączona, aby uniknąć błędów „Model not loaded”.