메인 콘텐츠로 건너뛰기

LM Studio

LM Studio는 자체 하드웨어에서 오픈 웨이트 모델을 실행할 수 있게 해주는 친숙하면서도 강력한 앱입니다. llama.cpp (GGUF) 또는 MLX 모델(Apple Silicon)을 실행할 수 있습니다. GUI 패키지 또는 헤드리스 데몬(llmster)으로 제공됩니다. 제품 및 설정 문서는 lmstudio.ai를 참고하세요.

빠른 시작

  1. LM Studio(데스크톱) 또는 llmster(헤드리스)를 설치한 다음, 로컬 서버를 시작합니다.
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. 서버 시작
데스크톱 앱을 시작했거나 아래 명령으로 데몬을 실행했는지 확인하세요.
lms daemon up
lms server start --port 1234
앱을 사용하는 경우, 원활한 사용을 위해 JIT가 활성화되어 있는지 확인하세요. 자세한 내용은 LM Studio JIT and TTL guide를 참고하세요.
  1. OpenClaw는 LM Studio 토큰 값이 필요합니다. LM_API_TOKEN을 설정하세요.
export LM_API_TOKEN="your-lm-studio-api-token"
LM Studio 인증이 비활성화된 경우, 비어 있지 않은 아무 토큰 값이나 사용하세요.
export LM_API_TOKEN="placeholder-key"
LM Studio 인증 설정에 대한 자세한 내용은 LM Studio Authentication을 참고하세요.
  1. 온보딩을 실행하고 LM Studio를 선택합니다.
openclaw onboard
  1. 온보딩에서 Default model 프롬프트를 사용해 LM Studio 모델을 선택합니다.
나중에 설정하거나 변경할 수도 있습니다.
openclaw models set lmstudio/qwen/qwen3.5-9b
LM Studio 모델 키는 author/model-name 형식을 따릅니다(예: qwen/qwen3.5-9b). OpenClaw 모델 참조는 공급자 이름이 앞에 붙습니다: lmstudio/qwen/qwen3.5-9b. 정확한 모델 키는 curl http://localhost:1234/api/v1/models를 실행한 뒤 key 필드를 확인하면 찾을 수 있습니다.

비대화형 온보딩

설정을 스크립트로 처리하려는 경우(CI, 프로비저닝, 원격 부트스트랩) 비대화형 온보딩을 사용하세요.
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio
또는 API 키와 함께 base URL 또는 모델을 지정할 수 있습니다.
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b
--custom-model-idlmstudio/ 공급자 접두사 없이, LM Studio가 반환한 모델 키(예: qwen/qwen3.5-9b)를 받습니다. 비대화형 온보딩에는 --lmstudio-api-key(또는 환경 변수의 LM_API_TOKEN)가 필요합니다. 인증되지 않은 LM Studio 서버의 경우, 비어 있지 않은 아무 토큰 값이나 사용할 수 있습니다. 호환성을 위해 --custom-api-key도 계속 지원되지만, LM Studio에는 --lmstudio-api-key 사용을 권장합니다. 이 과정은 models.providers.lmstudio를 기록하고, 기본 모델을 lmstudio/<custom-model-id>로 설정하며, lmstudio:default 인증 프로필을 기록합니다. 대화형 설정에서는 선택 사항인 선호 로드 컨텍스트 길이를 물어볼 수 있으며, 저장되는 감지된 LM Studio 모델 전반에 걸쳐 이를 config에 적용합니다.

구성

명시적 구성

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

문제 해결

LM Studio가 감지되지 않음

LM Studio가 실행 중인지, 그리고 LM_API_TOKEN을 설정했는지 확인하세요(인증되지 않은 서버의 경우, 비어 있지 않은 아무 토큰 값이나 사용할 수 있습니다).
# 데스크톱 앱으로 시작하거나, 헤드리스로 시작:
lms server start --port 1234
API에 접근할 수 있는지 확인하세요.
curl http://localhost:1234/api/v1/models

인증 오류 (HTTP 401)

설정 중 HTTP 401이 보고되면 API 키를 확인하세요.
  • LM_API_TOKEN이 LM Studio에 구성된 키와 일치하는지 확인하세요.
  • LM Studio 인증 설정에 대한 자세한 내용은 LM Studio Authentication을 참고하세요.
  • 서버에 인증이 필요하지 않은 경우, LM_API_TOKEN에 비어 있지 않은 아무 토큰 값이나 사용하세요.

적시 모델 로딩

LM Studio는 첫 요청 시 모델을 로드하는 적시(JIT) 모델 로딩을 지원합니다. 'Model not loaded' 오류를 방지하려면 이 기능이 활성화되어 있는지 확인하세요.