Skip to main content

LM Studio

LM Studio 是一款友好且功能强大的应用,可让你在自己的硬件上运行开放权重模型。它支持运行 llama.cpp(GGUF)或 MLX 模型(Apple Silicon)。提供 GUI 安装包,也提供无头守护进程(llmster)。有关产品和设置文档,请参阅 lmstudio.ai

快速开始

  1. 安装 LM Studio(桌面版)或 llmster(无头版),然后启动本地服务器:
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. 启动服务器
请确保你要么启动桌面应用,要么使用以下命令运行守护进程:
lms daemon up
lms server start --port 1234
如果你使用的是应用,请确保已启用 JIT,以获得流畅体验。了解更多信息,请参阅 LM Studio JIT and TTL guide
  1. OpenClaw 需要一个 LM Studio token 值。设置 LM_API_TOKEN
export LM_API_TOKEN="your-lm-studio-api-token"
如果 LM Studio 身份验证已禁用,请使用任意非空 token 值:
export LM_API_TOKEN="placeholder-key"
有关 LM Studio 身份验证设置的详细信息,请参阅 LM Studio Authentication
  1. 运行新手引导并选择 LM Studio
openclaw onboard
  1. 在新手引导中,使用 Default model 提示来选择你的 LM Studio 模型。
你也可以稍后设置或更改它:
openclaw models set lmstudio/qwen/qwen3.5-9b
LM Studio 模型键采用 author/model-name 格式(例如 qwen/qwen3.5-9b)。OpenClaw 模型引用会在前面加上提供商名称:lmstudio/qwen/qwen3.5-9b。你可以通过运行 curl http://localhost:1234/api/v1/models 并查看 key 字段来找到某个模型的准确键名。

非交互式新手引导

当你想以脚本方式完成设置时(CI、配置、远程引导),请使用非交互式新手引导:
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio
或者使用 API key 指定 base URL 或模型:
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b
--custom-model-id 接收 LM Studio 返回的模型键(例如 qwen/qwen3.5-9b),不包含 lmstudio/ 提供商前缀。 非交互式新手引导需要 --lmstudio-api-key(或环境中的 LM_API_TOKEN)。 对于未启用身份验证的 LM Studio 服务器,任意非空 token 值都可以使用。 --custom-api-key 仍然保留以兼容旧用法,但对于 LM Studio,优先使用 --lmstudio-api-key 这会写入 models.providers.lmstudio,将默认模型设置为 lmstudio/<custom-model-id>,并写入 lmstudio:default 身份验证配置文件。 交互式设置可以提示输入一个可选的首选加载上下文长度,并将其应用到保存到配置中的已发现 LM Studio 模型。

配置

显式配置

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

故障排除

未检测到 LM Studio

请确保 LM Studio 正在运行,并且你已设置 LM_API_TOKEN(对于未启用身份验证的服务器,任意非空 token 值都可以使用):
# 通过桌面应用启动,或以无头方式启动:
lms server start --port 1234
验证 API 可访问:
curl http://localhost:1234/api/v1/models

身份验证错误(HTTP 401)

如果设置过程中报告 HTTP 401,请检查你的 API key:
  • 检查 LM_API_TOKEN 是否与 LM Studio 中配置的 key 匹配。
  • 有关 LM Studio 身份验证设置的详细信息,请参阅 LM Studio Authentication
  • 如果你的服务器不需要身份验证,请为 LM_API_TOKEN 使用任意非空 token 值。

即时模型加载

LM Studio 支持即时(JIT)模型加载,即模型会在第一次请求时加载。请确保已启用此功能,以避免出现“Model not loaded”错误。