メインコンテンツへスキップ

Ollama

OpenClawは、ホスト型クラウドモデルおよびローカル/セルフホストのOllamaサーバー向けに、OllamaのネイティブAPI(/api/chat)と統合されています。Ollamaは3つのモードで使用できます: 到達可能なOllamaホストを通すCloud + Localhttps://ollama.comに対するCloud only、到達可能なOllamaホストに対するLocal onlyです。
Remote Ollamaユーザー: OpenClawで/v1のOpenAI互換URL(http://host:11434/v1)を使用しないでください。これはtool callingを壊し、モデルが生のtool JSONを平文として出力することがあります。代わりに、ネイティブOllama API URLを使用してください: baseUrl: "http://host:11434"/v1なし)。

はじめに

希望するセットアップ方法とモードを選択してください。

クラウドモデル

Cloud + Localは、ローカルモデルとクラウドモデルの両方の制御点として到達可能なOllamaホストを使用します。これはOllamaが推奨するハイブリッドフローです。セットアップ時にCloud + Localを使用します。OpenClawはOllamaのbase URLを尋ね、そのホストからローカルモデルを検出し、ホストがollama signinでクラウドアクセス用にサインイン済みかどうかを確認します。ホストがサインイン済みの場合、OpenClawはkimi-k2.5:cloudminimax-m2.7:cloudglm-5.1:cloudのようなホスト型クラウドのデフォルト候補も提案します。ホストがまだサインインしていない場合、OpenClawはollama signinを実行するまでセットアップをlocal-onlyのまま維持します。

モデル検出(暗黙provider)

OLLAMA_API_KEY(またはauth profile)を設定し、かつmodels.providers.ollama定義していない場合、OpenClawはhttp://127.0.0.1:11434のローカルOllamaインスタンスからモデルを検出します。
動作詳細
カタログ問い合わせ/api/tagsを問い合わせる
機能検出/api/showのbest-effortな参照を使用してcontextWindowを読み取り、機能(visionを含む)を検出する
Visionモデル/api/showvision機能が報告されたモデルは、画像対応(input: ["text", "image"])としてマークされるため、OpenClawは自動的に画像をプロンプトへ注入する
Reasoning検出モデル名のヒューリスティック(r1reasoningthink)でreasoningをマークする
トークン上限OpenClawが使用するデフォルトのOllama max-token上限にmaxTokensを設定する
コストすべてのコストを0に設定する
これにより、カタログをローカルOllamaインスタンスと同期したまま、手動のモデル登録を避けられます。
# See what models are available
ollama list
openclaw models list
新しいモデルを追加するには、Ollamaで単にpullしてください。
ollama pull mistral
新しいモデルは自動的に検出され、使用可能になります。
models.providers.ollamaを明示的に設定した場合、自動検出はスキップされ、モデルを手動で定義する必要があります。以下の明示的設定セクションを参照してください。

Visionと画像説明

バンドル済みOllama Pluginは、Ollamaを画像対応のmedia-understanding providerとして登録します。これにより、OpenClawは明示的な画像説明リクエストや設定済みの画像モデルデフォルトを、ローカルまたはホスト型のOllama visionモデル経由でルーティングできます。 ローカルvisionでは、画像対応モデルをpullしてください。
ollama pull qwen2.5vl:7b
export OLLAMA_API_KEY="ollama-local"
その後、infer CLIで確認します。
openclaw infer image describe \
  --file ./photo.jpg \
  --model ollama/qwen2.5vl:7b \
  --json
--modelは完全な<provider/model>参照である必要があります。これが設定されている場合、openclaw infer image describeは、そのモデルがネイティブvisionをサポートしているために説明をスキップするのではなく、そのモデルを直接実行します。 受信メディア向けのデフォルト画像理解モデルとしてOllamaを使うには、agents.defaults.imageModelを設定します。
{
  agents: {
    defaults: {
      imageModel: {
        primary: "ollama/qwen2.5vl:7b",
      },
    },
  },
}
models.providers.ollama.modelsを手動で定義する場合は、visionモデルを画像入力対応としてマークしてください。
{
  id: "qwen2.5vl:7b",
  name: "qwen2.5vl:7b",
  input: ["text", "image"],
  contextWindow: 128000,
  maxTokens: 8192,
}
OpenClawは、画像対応としてマークされていないモデルに対する画像説明リクエストを拒否します。暗黙の検出では、/api/showがvision機能を報告したときに、OpenClawはこれをOllamaから読み取ります。

設定

最も簡単なlocal-only有効化経路は環境変数経由です。
export OLLAMA_API_KEY="ollama-local"
OLLAMA_API_KEYが設定されている場合、providerエントリ内のapiKeyは省略でき、OpenClawが可用性チェック用に補完します。

モデル選択

設定が完了すると、すべてのOllamaモデルが利用可能になります。
{
  agents: {
    defaults: {
      model: {
        primary: "ollama/gpt-oss:20b",
        fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
      },
    },
  },
}
OpenClawは、バンドル済みのweb_search providerとしてOllama Web Searchをサポートしています。
プロパティ詳細
ホスト設定済みのOllamaホストを使用(models.providers.ollama.baseUrlが設定されていればそれ、そうでなければhttp://127.0.0.1:11434
認証キー不要
要件Ollamaが起動中で、ollama signinでサインイン済みである必要がある
openclaw onboardまたはopenclaw configure --section webOllama Web Searchを選択するか、次を設定してください:
{
  tools: {
    web: {
      search: {
        provider: "ollama",
      },
    },
  },
}
完全なセットアップおよび動作の詳細については、Ollama Web Searchを参照してください。

高度な設定

OpenAI互換モードではtool callingの信頼性がありません。 このモードは、proxyのためにOpenAI形式が必要で、かつネイティブtool calling動作に依存しない場合にのみ使用してください。
代わりにOpenAI互換endpointを使う必要がある場合(たとえばOpenAI形式しかサポートしないproxyの背後にある場合)は、api: "openai-completions"を明示的に設定してください。
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: true, // default: true
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}
このモードでは、streamingとtool callingを同時にサポートしないことがあります。モデル設定内でparams: { streaming: false }を指定してstreamingを無効にする必要がある場合があります。Ollamaでapi: "openai-completions"を使用すると、OpenClawはデフォルトでoptions.num_ctxを注入し、Ollamaが黙って4096のcontext windowへフォールバックしないようにします。proxy/upstreamが未知のoptionsフィールドを拒否する場合は、この動作を無効にしてください。
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: false,
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}
自動検出されたモデルでは、OpenClawは、利用可能な場合はOllamaが報告するcontext windowを使用し、そうでなければOpenClawが使用するデフォルトのOllama context windowへフォールバックします。明示的なprovider設定では、contextWindowmaxTokensを上書きできます。
{
  models: {
    providers: {
      ollama: {
        models: [
          {
            id: "llama3.3",
            contextWindow: 131072,
            maxTokens: 65536,
          }
        ]
      }
    }
  }
}
OpenClawは、deepseek-r1reasoningthinkのような名前を持つモデルを、デフォルトでreasoning対応として扱います。
ollama pull deepseek-r1:32b
追加設定は不要です。OpenClawが自動的にマークします。
Ollamaは無料でローカル実行されるため、すべてのモデルコストは$0に設定されます。これは自動検出モデルにも手動定義モデルにも適用されます。
バンドル済みOllama Pluginは、memory search向けのmemory embedding providerを登録します。設定済みのOllama base URLとAPI keyを使用します。
プロパティ
デフォルトモデルnomic-embed-text
自動pullはい — embeddingモデルはローカルに存在しない場合、自動的にpullされます
memory searchのembedding providerとしてOllamaを選択するには:
{
  agents: {
    defaults: {
      memorySearch: { provider: "ollama" },
    },
  },
}
OpenClawのOllama統合は、デフォルトでネイティブOllama API/api/chat)を使用し、streamingとtool callingの同時利用を完全にサポートします。特別な設定は不要です。
OpenAI互換endpointを使う必要がある場合は、上の「Legacy OpenAI-compatible mode」セクションを参照してください。そのモードでは、streamingとtool callingが同時に動作しないことがあります。

トラブルシューティング

Ollamaが起動していて、OLLAMA_API_KEY(またはauth profile)を設定しており、かつ明示的なmodels.providers.ollamaエントリを定義していないことを確認してください。
ollama serve
APIにアクセスできることを確認してください。
curl http://localhost:11434/api/tags
モデルが一覧に表示されない場合は、ローカルでそのモデルをpullするか、models.providers.ollamaで明示的に定義してください。
ollama list  # See what's installed
ollama pull gemma4
ollama pull gpt-oss:20b
ollama pull llama3.3     # Or another model
Ollamaが正しいポートで動作していることを確認してください。
# Check if Ollama is running
ps aux | grep ollama

# Or restart Ollama
ollama serve
さらにヘルプが必要な場合: TroubleshootingFAQ

関連

Model providers

すべてのprovider、モデル参照、フェイルオーバー動作の概要。

Model selection

モデルの選び方と設定方法。

Ollama Web Search

Ollamaを利用したWeb検索の完全なセットアップおよび動作の詳細。

Configuration

完全な設定リファレンス。