Ollama
OpenClawは、ホスト型クラウドモデルおよびローカル/セルフホストのOllamaサーバー向けに、OllamaのネイティブAPI(/api/chat)と統合されています。Ollamaは3つのモードで使用できます: 到達可能なOllamaホストを通すCloud + Local、https://ollama.comに対するCloud only、到達可能なOllamaホストに対するLocal onlyです。
はじめに
希望するセットアップ方法とモードを選択してください。- Onboarding (recommended)
- Manual setup
最適な用途: 動作するOllamaクラウドまたはローカルセットアップへの最短経路。必要に応じてカスタムbase URLまたはモデルを指定できます:
モードを選択
- Cloud + Local — ローカルOllamaホストに加えて、そのホスト経由でルーティングされるクラウドモデル
- Cloud only —
https://ollama.com経由のホスト型Ollamaモデル - Local only — ローカルモデルのみ
モデルを選択
Cloud onlyではOLLAMA_API_KEYの入力を求められ、ホスト型クラウドのデフォルト候補が提案されます。Cloud + LocalとLocal onlyではOllamaのbase URLを尋ねられ、利用可能なモデルを検出し、まだ利用できない場合は選択したローカルモデルを自動でpullします。Cloud + Localでは、そのOllamaホストがクラウドアクセス用にサインイン済みかどうかも確認します。非対話モード
クラウドモデル
- Cloud + Local
- Cloud only
- Local only
Cloud + Localは、ローカルモデルとクラウドモデルの両方の制御点として到達可能なOllamaホストを使用します。これはOllamaが推奨するハイブリッドフローです。セットアップ時にCloud + Localを使用します。OpenClawはOllamaのbase URLを尋ね、そのホストからローカルモデルを検出し、ホストがollama signinでクラウドアクセス用にサインイン済みかどうかを確認します。ホストがサインイン済みの場合、OpenClawはkimi-k2.5:cloud、minimax-m2.7:cloud、glm-5.1:cloudのようなホスト型クラウドのデフォルト候補も提案します。ホストがまだサインインしていない場合、OpenClawはollama signinを実行するまでセットアップをlocal-onlyのまま維持します。モデル検出(暗黙provider)
OLLAMA_API_KEY(またはauth profile)を設定し、かつmodels.providers.ollamaを定義していない場合、OpenClawはhttp://127.0.0.1:11434のローカルOllamaインスタンスからモデルを検出します。
| 動作 | 詳細 |
|---|---|
| カタログ問い合わせ | /api/tagsを問い合わせる |
| 機能検出 | /api/showのbest-effortな参照を使用してcontextWindowを読み取り、機能(visionを含む)を検出する |
| Visionモデル | /api/showでvision機能が報告されたモデルは、画像対応(input: ["text", "image"])としてマークされるため、OpenClawは自動的に画像をプロンプトへ注入する |
| Reasoning検出 | モデル名のヒューリスティック(r1、reasoning、think)でreasoningをマークする |
| トークン上限 | OpenClawが使用するデフォルトのOllama max-token上限にmaxTokensを設定する |
| コスト | すべてのコストを0に設定する |
models.providers.ollamaを明示的に設定した場合、自動検出はスキップされ、モデルを手動で定義する必要があります。以下の明示的設定セクションを参照してください。Visionと画像説明
バンドル済みOllama Pluginは、Ollamaを画像対応のmedia-understanding providerとして登録します。これにより、OpenClawは明示的な画像説明リクエストや設定済みの画像モデルデフォルトを、ローカルまたはホスト型のOllama visionモデル経由でルーティングできます。 ローカルvisionでは、画像対応モデルをpullしてください。--modelは完全な<provider/model>参照である必要があります。これが設定されている場合、openclaw infer image describeは、そのモデルがネイティブvisionをサポートしているために説明をスキップするのではなく、そのモデルを直接実行します。
受信メディア向けのデフォルト画像理解モデルとしてOllamaを使うには、agents.defaults.imageModelを設定します。
models.providers.ollama.modelsを手動で定義する場合は、visionモデルを画像入力対応としてマークしてください。
/api/showがvision機能を報告したときに、OpenClawはこれをOllamaから読み取ります。
設定
- Basic (implicit discovery)
- Explicit (manual models)
- Custom base URL
最も簡単なlocal-only有効化経路は環境変数経由です。
モデル選択
設定が完了すると、すべてのOllamaモデルが利用可能になります。Ollama Web Search
OpenClawは、バンドル済みのweb_search providerとしてOllama Web Searchをサポートしています。
| プロパティ | 詳細 |
|---|---|
| ホスト | 設定済みのOllamaホストを使用(models.providers.ollama.baseUrlが設定されていればそれ、そうでなければhttp://127.0.0.1:11434) |
| 認証 | キー不要 |
| 要件 | Ollamaが起動中で、ollama signinでサインイン済みである必要がある |
openclaw onboardまたはopenclaw configure --section webでOllama Web Searchを選択するか、次を設定してください:
完全なセットアップおよび動作の詳細については、Ollama Web Searchを参照してください。
高度な設定
Legacy OpenAI-compatible mode
Legacy OpenAI-compatible mode
代わりにOpenAI互換endpointを使う必要がある場合(たとえばOpenAI形式しかサポートしないproxyの背後にある場合)は、このモードでは、streamingとtool callingを同時にサポートしないことがあります。モデル設定内で
api: "openai-completions"を明示的に設定してください。params: { streaming: false }を指定してstreamingを無効にする必要がある場合があります。Ollamaでapi: "openai-completions"を使用すると、OpenClawはデフォルトでoptions.num_ctxを注入し、Ollamaが黙って4096のcontext windowへフォールバックしないようにします。proxy/upstreamが未知のoptionsフィールドを拒否する場合は、この動作を無効にしてください。Context windows
Context windows
自動検出されたモデルでは、OpenClawは、利用可能な場合はOllamaが報告するcontext windowを使用し、そうでなければOpenClawが使用するデフォルトのOllama context windowへフォールバックします。明示的なprovider設定では、
contextWindowとmaxTokensを上書きできます。Reasoning models
Reasoning models
OpenClawは、追加設定は不要です。OpenClawが自動的にマークします。
deepseek-r1、reasoning、thinkのような名前を持つモデルを、デフォルトでreasoning対応として扱います。Model costs
Model costs
Ollamaは無料でローカル実行されるため、すべてのモデルコストは$0に設定されます。これは自動検出モデルにも手動定義モデルにも適用されます。
Memory embeddings
Memory embeddings
バンドル済みOllama Pluginは、memory search向けのmemory embedding providerを登録します。設定済みのOllama base URLとAPI keyを使用します。
memory searchのembedding providerとしてOllamaを選択するには:
| プロパティ | 値 |
|---|---|
| デフォルトモデル | nomic-embed-text |
| 自動pull | はい — embeddingモデルはローカルに存在しない場合、自動的にpullされます |
Streaming configuration
Streaming configuration
OpenClawのOllama統合は、デフォルトでネイティブOllama API(
/api/chat)を使用し、streamingとtool callingの同時利用を完全にサポートします。特別な設定は不要です。トラブルシューティング
Ollamaが検出されない
Ollamaが検出されない
Ollamaが起動していて、APIにアクセスできることを確認してください。
OLLAMA_API_KEY(またはauth profile)を設定しており、かつ明示的なmodels.providers.ollamaエントリを定義していないことを確認してください。利用可能なモデルがない
利用可能なモデルがない
モデルが一覧に表示されない場合は、ローカルでそのモデルをpullするか、
models.providers.ollamaで明示的に定義してください。接続が拒否される
接続が拒否される
Ollamaが正しいポートで動作していることを確認してください。
さらにヘルプが必要な場合: TroubleshootingとFAQ。
関連
Model providers
すべてのprovider、モデル参照、フェイルオーバー動作の概要。
Model selection
モデルの選び方と設定方法。
Ollama Web Search
Ollamaを利用したWeb検索の完全なセットアップおよび動作の詳細。
Configuration
完全な設定リファレンス。