LM Studio is een toegankelijke maar krachtige app om open-weight modellen op je eigen hardware uit te voeren. Je kunt er llama.cpp- (GGUF) of MLX-modellen (Apple Silicon) mee draaien. Beschikbaar als GUI-pakket of headless daemon (Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
llmster). Zie lmstudio.ai voor product- en installatiedocumentatie.
Snelle start
- Installeer LM Studio (desktop) of
llmster(headless) en start daarna de lokale server:
- Start de server
- Als LM Studio-authenticatie is ingeschakeld, stel dan
LM_API_TOKENin:
- Voer onboarding uit en kies
LM Studio:
- Gebruik tijdens onboarding de prompt
Default modelom je LM Studio-model te kiezen.
author/model-name (bijv. qwen/qwen3.5-9b). OpenClaw
modelverwijzingen voegen de providernaam ervoor toe: lmstudio/qwen/qwen3.5-9b. Je kunt de exacte sleutel voor
een model vinden door curl http://localhost:1234/api/v1/models uit te voeren en naar het veld key te kijken.
Niet-interactieve onboarding
Gebruik niet-interactieve onboarding wanneer je de installatie wilt scripten (CI, provisioning, externe bootstrap):--custom-model-id neemt de modelsleutel zoals die door LM Studio wordt geretourneerd (bijv. qwen/qwen3.5-9b), zonder
het providerprefix lmstudio/.
Geef voor geauthenticeerde LM Studio-servers --lmstudio-api-key door of stel LM_API_TOKEN in.
Laat voor niet-geauthenticeerde LM Studio-servers de sleutel weg; OpenClaw slaat een lokale niet-geheime markering op.
--custom-api-key blijft ondersteund voor compatibiliteit, maar --lmstudio-api-key heeft de voorkeur voor LM Studio.
Dit schrijft models.providers.lmstudio en stelt het standaardmodel in op
lmstudio/<custom-model-id>. Wanneer je een API-sleutel opgeeft, schrijft de installatie ook het
lmstudio:default-authenticatieprofiel.
Interactieve installatie kan vragen om een optionele voorkeurslengte voor de laadcontext en past die toe op de ontdekte LM Studio-modellen die in de configuratie worden opgeslagen.
De LM Studio-pluginconfiguratie vertrouwt het geconfigureerde LM Studio-eindpunt voor modelaanvragen, inclusief loopback-, LAN- en tailnet-hosts. Je kunt je hiervoor afmelden door models.providers.lmstudio.request.allowPrivateNetwork: false in te stellen.
Configuratie
Compatibiliteit met streaminggebruik
LM Studio is compatibel met streaminggebruik. Wanneer het geen OpenAI-vormigusage-object uitzendt, herstelt OpenClaw in plaats daarvan tokenaantallen uit llama.cpp-achtige
metadata timings.prompt_n / timings.predicted_n.
Hetzelfde gedrag voor streaminggebruik geldt voor deze OpenAI-compatibele lokale backends:
- vLLM
- SGLang
- llama.cpp
- LocalAI
- Jan
- TabbyAPI
- text-generation-webui
Compatibiliteit met thinking
Wanneer de modeldetectie van LM Studio via/api/v1/models modelspecifieke redeneeropties
rapporteert, behoudt OpenClaw die native waarden in de compatibiliteitsmetadata van het model. Voor
binaire thinking-modellen die allowed_options: ["off", "on"] adverteren,
koppelt OpenClaw uitgeschakelde thinking aan off en ingeschakelde /think-niveaus aan on,
in plaats van alleen-OpenAI-waarden zoals low of medium te verzenden.
Expliciete configuratie
Probleemoplossing
LM Studio niet gedetecteerd
Zorg dat LM Studio actief is. Als authenticatie is ingeschakeld, stel dan ookLM_API_TOKEN in:
Authenticatiefouten (HTTP 401)
Als de installatie HTTP 401 meldt, controleer dan je API-sleutel:- Controleer of
LM_API_TOKENovereenkomt met de sleutel die in LM Studio is geconfigureerd. - Zie LM Studio Authentication voor details over het instellen van LM Studio-authenticatie.
- Als je server geen authenticatie vereist, laat de sleutel dan leeg tijdens de installatie.
Just-in-time model laden
LM Studio ondersteunt just-in-time (JIT) model laden, waarbij modellen bij de eerste aanvraag worden geladen. Zorg dat dit is ingeschakeld om fouten zoals ‘Model not loaded’ te voorkomen.LAN- of tailnet-LM Studio-host
Gebruik het bereikbare adres van de LM Studio-host, behoud/v1 en zorg dat LM Studio op die machine buiten loopback is gebonden:
lmstudio automatisch het geconfigureerde lokale/private eindpunt voor bewaakte modelaanvragen. Aangepaste loopback-provider-ID’s zoals localhost of 127.0.0.1 worden ook automatisch vertrouwd; stel voor aangepaste provider-ID’s voor LAN, tailnet of private DNS expliciet models.providers.<id>.request.allowPrivateNetwork: true in.