LM Studio 是一款友善但功能強大的應用程式,可在你自己的硬體上執行開放權重模型。它可讓你執行 llama.cpp (GGUF) 或 MLX 模型 (Apple Silicon)。提供 GUI 套件或無介面守護程式 (Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
llmster)。產品與設定文件請參閱 lmstudio.ai。
快速開始
- 安裝 LM Studio (桌面版) 或
llmster(無介面),然後啟動本機伺服器:
- 啟動伺服器
- 如果已啟用 LM Studio 驗證,請設定
LM_API_TOKEN:
- 執行初始設定並選擇
LM Studio:
- 在初始設定中,使用
Default model提示選擇你的 LM Studio 模型。
author/model-name 格式 (例如 qwen/qwen3.5-9b)。OpenClaw
模型參照會在前面加上供應商名稱:lmstudio/qwen/qwen3.5-9b。你可以執行 curl http://localhost:1234/api/v1/models 並查看 key 欄位,以找到
模型的確切金鑰。
非互動式初始設定
當你想要以腳本設定時 (CI、佈建、遠端啟動設定),請使用非互動式初始設定:--custom-model-id 接受 LM Studio 傳回的模型金鑰 (例如 qwen/qwen3.5-9b),不包含
lmstudio/ 供應商前綴。
對於需要驗證的 LM Studio 伺服器,請傳入 --lmstudio-api-key 或設定 LM_API_TOKEN。
對於不需要驗證的 LM Studio 伺服器,請省略金鑰;OpenClaw 會儲存本機非機密標記。
--custom-api-key 仍支援相容性用途,但 LM Studio 建議使用 --lmstudio-api-key。
這會寫入 models.providers.lmstudio,並將預設模型設定為
lmstudio/<custom-model-id>。當你提供 API 金鑰時,設定也會寫入
lmstudio:default 驗證設定檔。
互動式設定可提示輸入選用的偏好載入內容長度,並套用到其儲存至設定中的所有已探索 LM Studio 模型。
LM Studio Plugin 設定會信任已設定的 LM Studio 端點以進行模型請求,包括 loopback、LAN 和 tailnet 主機。你可以設定 models.providers.lmstudio.request.allowPrivateNetwork: false 來選擇退出。
設定
串流使用量相容性
LM Studio 與串流使用量相容。當它未發出 OpenAI 形式的usage 物件時,OpenClaw 會改從 llama.cpp 風格的
timings.prompt_n / timings.predicted_n 中繼資料復原 token 計數。
相同的串流使用量行為也適用於這些 OpenAI 相容的本機後端:
- vLLM
- SGLang
- llama.cpp
- LocalAI
- Jan
- TabbyAPI
- text-generation-webui
Thinking 相容性
當 LM Studio 的/api/v1/models 探索回報模型專屬 reasoning
選項時,OpenClaw 會在模型相容性中繼資料中保留這些原生值。對於
宣告 allowed_options: ["off", "on"] 的二元 thinking 模型,
OpenClaw 會將停用 thinking 對應到 off,並將啟用的 /think 層級對應到 on,
而不是傳送僅限 OpenAI 的值,例如 low 或 medium。
明確設定
疑難排解
未偵測到 LM Studio
請確認 LM Studio 正在執行。如果已啟用驗證,也請設定LM_API_TOKEN:
驗證錯誤 (HTTP 401)
如果設定回報 HTTP 401,請驗證你的 API 金鑰:- 檢查
LM_API_TOKEN是否符合 LM Studio 中設定的金鑰。 - LM Studio 驗證設定詳情請參閱 LM Studio 驗證。
- 如果你的伺服器不需要驗證,請在設定期間將金鑰留空。
即時模型載入
LM Studio 支援即時 (JIT) 模型載入,模型會在首次請求時載入。請確認已啟用此功能,以避免「Model not loaded」錯誤。LAN 或 tailnet LM Studio 主機
使用 LM Studio 主機可連線的位址,保留/v1,並確認 LM Studio 在該機器上已繫結到 loopback 以外的位址:
lmstudio 會自動信任其設定的本機/私人端點,以進行受保護的模型請求。自訂 loopback 供應商 ID,例如 localhost 或 127.0.0.1 也會自動受到信任;對於 LAN、tailnet 或私人 DNS 自訂供應商 ID,請明確設定 models.providers.<id>.request.allowPrivateNetwork: true。