Local Models
ローカル運用は可能ですが、OpenClawは大きなコンテキストと、プロンプトインジェクションに対する強力な防御を前提としています。小規模なGPUではコンテキストが切り詰められ、安全性が損なわれます。高い水準を目指してください: 最大構成のMac Studio 2台以上、または同等のGPUリグ(約$30k以上)。単体の24 GB GPUで動かせるのは、より軽いプロンプトを高いレイテンシで扱う場合に限られます。実行可能な範囲で最大 / フルサイズのモデルバリアントを使ってください。強い量子化を施した、または「small」なチェックポイントは、プロンプトインジェクションのリスクを高めます(Security を参照)。 最も手間の少ないローカル構成を望むなら、まず Ollama とopenclaw onboard から始めてください。このページは、より上位のローカルスタックとカスタムOpenAI互換ローカルサーバー向けの、方針を明確にしたガイドです。
推奨: LM Studio + 大規模ローカルモデル(Responses API)
現時点で最良のローカルスタックです。LM Studioで大規模モデル(たとえばフルサイズのQwen、DeepSeek、またはLlamaビルド)を読み込み、ローカルサーバー(デフォルトはhttp://127.0.0.1:1234)を有効にし、推論を最終テキストから分離するためにResponses APIを使ってください。
- LM Studioをインストール: https://lmstudio.ai
- LM Studioで、利用可能な中で最大のモデルビルドをダウンロードし(「small」や強く量子化されたバリアントは避けてください)、サーバーを起動して、
http://127.0.0.1:1234/v1/modelsにそれが表示されることを確認します。 my-local-modelを、LM Studioに表示される実際のモデルIDに置き換えます。- モデルは読み込んだままにしてください。コールドロードは起動レイテンシを増やします。
- LM Studioのビルドが異なる場合は、
contextWindowとmaxTokensを調整します。 - WhatsAppでは、最終テキストだけが送信されるようにResponses APIを使ってください。
models.mode: "merge" を使うと、フォールバックを利用可能なままにできます。
ハイブリッド構成: ホスト型を主要、ローカルをフォールバック
ローカル優先で、ホスト型を安全網にする
主要とフォールバックの順序を入れ替えてください。SonnetやOpusへフォールバックできるよう、同じprovidersブロックとmodels.mode: "merge" を維持します。これにより、ローカルマシンが停止していても対応できます。
リージョン別ホスティング / データルーティング
- ホスト型のMiniMax/Kimi/GLMバリアントは、リージョン固定エンドポイント(例: USホスト)付きでOpenRouter上にも存在します。そこではリージョン別バリアントを選ぶことで、
models.mode: "merge"を維持しつつAnthropic/OpenAIフォールバックも使いながら、トラフィックを選択した法域内に留められます。 - プライバシー面ではローカル専用が最も強力です。ホスト型のリージョンルーティングは、プロバイダー機能が必要だがデータフローを制御したい場合の中間案です。
その他のOpenAI互換ローカルプロキシ
vLLM、LiteLLM、OAI-proxy、またはカスタムGatewayは、OpenAI形式の/v1 エンドポイントを公開していれば動作します。上記のproviderブロックを、自分のエンドポイントとモデルIDに置き換えてください。
models.mode: "merge" を維持してください。
ローカル / プロキシの /v1 バックエンドに関する挙動メモ:
- OpenClawは、これらをネイティブな OpenAIエンドポイントではなく、プロキシ形式のOpenAI互換ルートとして扱います
- ここではOpenAI専用のネイティブなリクエスト整形は適用されません:
service_tierなし、Responsesのstoreなし、OpenAI推論互換のpayload整形なし、プロンプトキャッシュヒントなし - カスタムプロキシURLには、隠しのOpenClaw attributionヘッダー(
originator,version,User-Agent)は注入されません
トラブルシューティング
- Gatewayからそのプロキシに到達できますか?
curl http://127.0.0.1:1234/v1/models - LM Studioのモデルがアンロードされていませんか? 再読み込みしてください。コールドスタートは「応答が止まっている」ように見える一般的な原因です。
- コンテキストエラーですか?
contextWindowを下げるか、サーバー側の上限を引き上げてください。 - 安全性: ローカルモデルはプロバイダー側フィルターを通りません。プロンプトインジェクションの影響範囲を抑えるため、エージェントの役割は狭く保ち、compactionは有効にしておいてください。