LM Studio
LM Studio は、自分のハードウェア上でオープンウェイトモデルを実行するための、使いやすく強力なアプリです。llama.cpp(GGUF)または MLX モデル(Apple Silicon)を実行できます。GUI パッケージまたはヘッドレスデーモン(llmster)として利用できます。製品とセットアップのドキュメントについては、lmstudio.ai を参照してください。
クイックスタート
- LM Studio(デスクトップ)または
llmster(ヘッドレス)をインストールし、ローカルサーバーを起動します。
- サーバーを起動します
- OpenClaw では LM Studio のトークン値が必要です。
LM_API_TOKENを設定します。
- オンボーディングを実行し、
LM Studioを選択します。
- オンボーディングで、
Default modelのプロンプトを使って LM Studio モデルを選択します。
author/model-name 形式(例: qwen/qwen3.5-9b)に従います。OpenClaw のモデル参照では、プロバイダー名が先頭に付きます: lmstudio/qwen/qwen3.5-9b。モデルの正確なキーは、curl http://localhost:1234/api/v1/models を実行して key フィールドを確認することで見つけられます。
非対話型オンボーディング
セットアップをスクリプト化したい場合(CI、プロビジョニング、リモートブートストラップ)は、非対話型オンボーディングを使用します。--custom-model-id は、LM Studio が返すモデルキー(例: qwen/qwen3.5-9b)を受け取り、lmstudio/ のプロバイダープレフィックスは含めません。
非対話型オンボーディングには --lmstudio-api-key(または環境変数内の LM_API_TOKEN)が必要です。
認証されていない LM Studio サーバーでは、空でない任意のトークン値で動作します。
--custom-api-key も互換性のため引き続きサポートされていますが、LM Studio では --lmstudio-api-key の使用を推奨します。
これにより models.providers.lmstudio が書き込まれ、デフォルトモデルが
lmstudio/<custom-model-id> に設定され、lmstudio:default 認証プロファイルが書き込まれます。
対話型セットアップでは、任意の推奨ロードコンテキスト長を尋ねることができ、保存する検出済み LM Studio モデル全体にその設定を適用します。
設定
明示的な設定
トラブルシューティング
LM Studio が検出されない
LM Studio が実行中であり、LM_API_TOKEN を設定していることを確認してください(認証なしサーバーでは、空でない任意のトークン値で動作します)。
認証エラー(HTTP 401)
セットアップで HTTP 401 が報告される場合は、API キーを確認してください。LM_API_TOKENが LM Studio で設定したキーと一致していることを確認してください。- LM Studio の認証設定の詳細については、LM Studio Authentication を参照してください。
- サーバーで認証が不要な場合は、
LM_API_TOKENに空でない任意のトークン値を使用してください。
Just-in-time モデル読み込み
LM Studio は just-in-time(JIT)モデル読み込みをサポートしており、モデルは最初のリクエスト時に読み込まれます。Model not loaded エラーを避けるため、これを有効にしていることを確認してください。