LM Studio
LM Studio는 자체 하드웨어에서 오픈 웨이트 모델을 실행할 수 있게 해주는 친숙하면서도 강력한 앱입니다. llama.cpp (GGUF) 또는 MLX 모델(Apple Silicon)을 실행할 수 있습니다. GUI 패키지 또는 헤드리스 데몬(llmster)으로 제공됩니다. 제품 및 설정 문서는 lmstudio.ai를 참고하세요.
빠른 시작
- LM Studio(데스크톱) 또는
llmster(헤드리스)를 설치한 다음, 로컬 서버를 시작합니다.
- 서버 시작
- OpenClaw는 LM Studio 토큰 값이 필요합니다.
LM_API_TOKEN을 설정하세요.
- 온보딩을 실행하고
LM Studio를 선택합니다.
- 온보딩에서
Default model프롬프트를 사용해 LM Studio 모델을 선택합니다.
author/model-name 형식을 따릅니다(예: qwen/qwen3.5-9b). OpenClaw 모델 참조는 공급자 이름이 앞에 붙습니다: lmstudio/qwen/qwen3.5-9b. 정확한 모델 키는 curl http://localhost:1234/api/v1/models를 실행한 뒤 key 필드를 확인하면 찾을 수 있습니다.
비대화형 온보딩
설정을 스크립트로 처리하려는 경우(CI, 프로비저닝, 원격 부트스트랩) 비대화형 온보딩을 사용하세요.--custom-model-id는 lmstudio/ 공급자 접두사 없이, LM Studio가 반환한 모델 키(예: qwen/qwen3.5-9b)를 받습니다.
비대화형 온보딩에는 --lmstudio-api-key(또는 환경 변수의 LM_API_TOKEN)가 필요합니다.
인증되지 않은 LM Studio 서버의 경우, 비어 있지 않은 아무 토큰 값이나 사용할 수 있습니다.
호환성을 위해 --custom-api-key도 계속 지원되지만, LM Studio에는 --lmstudio-api-key 사용을 권장합니다.
이 과정은 models.providers.lmstudio를 기록하고, 기본 모델을
lmstudio/<custom-model-id>로 설정하며, lmstudio:default 인증 프로필을 기록합니다.
대화형 설정에서는 선택 사항인 선호 로드 컨텍스트 길이를 물어볼 수 있으며, 저장되는 감지된 LM Studio 모델 전반에 걸쳐 이를 config에 적용합니다.
구성
명시적 구성
문제 해결
LM Studio가 감지되지 않음
LM Studio가 실행 중인지, 그리고LM_API_TOKEN을 설정했는지 확인하세요(인증되지 않은 서버의 경우, 비어 있지 않은 아무 토큰 값이나 사용할 수 있습니다).
인증 오류 (HTTP 401)
설정 중 HTTP 401이 보고되면 API 키를 확인하세요.LM_API_TOKEN이 LM Studio에 구성된 키와 일치하는지 확인하세요.- LM Studio 인증 설정에 대한 자세한 내용은 LM Studio Authentication을 참고하세요.
- 서버에 인증이 필요하지 않은 경우,
LM_API_TOKEN에 비어 있지 않은 아무 토큰 값이나 사용하세요.
적시 모델 로딩
LM Studio는 첫 요청 시 모델을 로드하는 적시(JIT) 모델 로딩을 지원합니다.'Model not loaded' 오류를 방지하려면 이 기능이 활성화되어 있는지 확인하세요.