Ollama
Ollama は、オープンソースモデルを自分のマシン上で簡単に実行できるローカル LLM ランタイムです。OpenClaw は Ollama のネイティブ API(/api/chat)と統合し、ストリーミングと tool calling をサポートし、OLLAMA_API_KEY(または auth profile)を設定して明示的な models.providers.ollama エントリーを定義していない場合は、ローカル Ollama モデルを自動検出できます。
Remote Ollama ユーザー向け: OpenClaw では /v1 の OpenAI 互換 URL(http://host:11434/v1)を使わないでください。これでは tool calling が壊れ、モデルが raw tool JSON を平文として出力することがあります。代わりに、ネイティブ Ollama API URL を使ってください: baseUrl: "http://host:11434"(/v1 なし)。
クイックスタート
オンボーディング(推奨)
Ollama をセットアップする最速の方法はオンボーディングです。
プロバイダー一覧から Ollama を選んでください。オンボーディングでは次を行います。
- Ollama インスタンスに到達できる base URL を尋ねます(デフォルトは
http://127.0.0.1:11434)。
- Cloud + Local(クラウドモデル + ローカルモデル)または Local(ローカルモデルのみ)を選ばせます。
- Cloud + Local を選び、まだ ollama.com にサインインしていない場合は、ブラウザーのサインインフローを開きます。
- 利用可能なモデルを検出し、デフォルト候補を提案します。
- 選択したモデルがローカルに存在しない場合は自動で pull します。
非対話モードもサポートされています。
openclaw onboard --non-interactive \
--auth-choice ollama \
--accept-risk
必要に応じてカスタム base URL やモデルを指定できます。
openclaw onboard --non-interactive \
--auth-choice ollama \
--custom-base-url "http://ollama-host:11434" \
--custom-model-id "qwen3.5:27b" \
--accept-risk
手動セットアップ
-
Ollama をインストール: https://ollama.com/download
-
ローカル推論を使いたい場合はローカルモデルを pull します。
ollama pull glm-4.7-flash
# または
ollama pull gpt-oss:20b
# または
ollama pull llama3.3
- クラウドモデルも使いたい場合はサインインします。
- オンボーディングを実行し、
Ollama を選びます。
Local: ローカルモデルのみ
Cloud + Local: ローカルモデル + クラウドモデル
kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud のようなクラウドモデルには、ローカルの ollama pull は不要です
現在 OpenClaw が提案するもの:
- ローカルデフォルト:
glm-4.7-flash
- クラウドデフォルト:
kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud
- 手動セットアップを好む場合は、OpenClaw 用に直接 Ollama を有効化します(任意の値で動作します。Ollama 自体は実際のキーを必要としません)。
# 環境変数を設定
export OLLAMA_API_KEY="ollama-local"
# または設定ファイルに設定
openclaw config set models.providers.ollama.apiKey "ollama-local"
- モデルを確認または切り替えます。
openclaw models list
openclaw models set ollama/glm-4.7-flash
- または config でデフォルトを設定します。
{
agents: {
defaults: {
model: { primary: "ollama/glm-4.7-flash" },
},
},
}
モデル検出(暗黙の provider)
OLLAMA_API_KEY(または auth profile)を設定し、models.providers.ollama を定義していない場合、OpenClaw は http://127.0.0.1:11434 のローカル Ollama インスタンスからモデルを検出します。
/api/tags に問い合わせる
- 利用可能な場合は、ベストエフォートで
/api/show を参照して contextWindow を読む
- モデル名ヒューリスティック(
r1、reasoning、think)で reasoning をマークする
maxTokens は OpenClaw が使うデフォルトの Ollama max-token cap に設定する
- すべてのコストを
0 にする
これにより、カタログをローカル Ollama インスタンスと整合させたまま、手動のモデル定義を避けられます。
利用可能なモデルを確認するには:
ollama list
openclaw models list
新しいモデルを追加するには、単に Ollama で pull します。
新しいモデルは自動的に検出され、すぐに使えるようになります。
models.providers.ollama を明示的に設定すると、自動検出はスキップされ、モデルを手動定義する必要があります(下記参照)。
基本セットアップ(暗黙の検出)
Ollama を有効にする最も簡単な方法は環境変数です。
export OLLAMA_API_KEY="ollama-local"
明示的セットアップ(手動モデル)
明示的 config を使うのは次のような場合です。
- Ollama が別ホスト / 別ポートで動いている。
- 特定の context window や model list を強制したい。
- 完全に手動のモデル定義をしたい。
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434",
apiKey: "ollama-local",
api: "ollama",
models: [
{
id: "gpt-oss:20b",
name: "GPT-OSS 20B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}
OLLAMA_API_KEY が設定されている場合は、provider エントリー内の apiKey を省略でき、OpenClaw が availability check 用に補います。
カスタム base URL(明示的 config)
Ollama が別ホストまたは別ポートで動いている場合(明示的 config は自動検出を無効にするため、モデルは手動定義してください):
{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434", // /v1 なし - ネイティブ Ollama API URL を使う
api: "ollama", // ネイティブの tool-calling 動作を保証するため明示的に設定
},
},
},
}
URL に /v1 を付けないでください。/v1 パスは OpenAI 互換モードを使うため、tool calling の信頼性がありません。パス接尾辞のないベースの Ollama URL を使ってください。
モデル選択
設定後は、すべての Ollama モデルが利用可能になります。
{
agents: {
defaults: {
model: {
primary: "ollama/gpt-oss:20b",
fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
},
},
},
}
クラウドモデル
クラウドモデルを使うと、ローカルモデルと並行してクラウドホスト型モデル(たとえば kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud)を実行できます。
クラウドモデルを使うには、セットアップ中に Cloud + Local モードを選択してください。ウィザードはサインイン済みかどうかを確認し、必要であればブラウザーのサインインフローを開きます。認証が確認できない場合、ウィザードはローカルモデルのデフォルトにフォールバックします。
ollama.com/signin で直接サインインすることもできます。
Ollama Web Search
OpenClaw は、バンドル済みの web_search
provider として Ollama Web Search もサポートしています。
- 設定済みの Ollama host(
models.providers.ollama.baseUrl が設定されていればそれ、なければ http://127.0.0.1:11434)を使います。
- キー不要です。
- Ollama が実行中であり、
ollama signin でサインイン済みである必要があります。
openclaw onboard または
openclaw configure --section web で Ollama Web Search を選ぶか、次を設定してください。
{
tools: {
web: {
search: {
provider: "ollama",
},
},
},
}
完全なセットアップと動作の詳細については、Ollama Web Search を参照してください。
高度な設定
Reasoning モデル
OpenClaw は、deepseek-r1、reasoning、think のような名前を持つモデルを、デフォルトで reasoning 対応として扱います。
ollama pull deepseek-r1:32b
モデルコスト
Ollama は無料でローカル実行されるため、すべてのモデルコストは $0 に設定されます。
ストリーミング設定
OpenClaw の Ollama 統合は、デフォルトで ネイティブ Ollama API(/api/chat)を使い、ストリーミングと tool calling の同時利用を完全にサポートします。特別な設定は不要です。
レガシー OpenAI 互換モード
OpenAI 互換モードでは tool calling の信頼性がありません。 このモードは、OpenAI 形式だけをサポートするプロキシが必要で、ネイティブな tool calling 動作に依存しない場合にのみ使ってください。
代わりに OpenAI 互換 endpoint を使う必要がある場合(たとえば OpenAI 形式しかサポートしないプロキシの背後など)は、api: "openai-completions" を明示的に設定してください。
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: true, // デフォルト: true
apiKey: "ollama-local",
models: [...]
}
}
}
}
このモードでは、ストリーミング + tool calling を同時にサポートしないことがあります。モデル config の params: { streaming: false } でストリーミングを無効にする必要があるかもしれません。
Ollama で api: "openai-completions" を使う場合、Ollama が黙って 4096 context window にフォールバックしないよう、OpenClaw はデフォルトで options.num_ctx を注入します。プロキシ / 上流が未知の options フィールドを拒否する場合は、この動作を無効にしてください。
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: false,
apiKey: "ollama-local",
models: [...]
}
}
}
}
Context window
自動検出されたモデルでは、OpenClaw は利用可能な場合は Ollama が報告する context window を使い、そうでなければ OpenClaw が使うデフォルトの Ollama context window にフォールバックします。明示的な provider config では、contextWindow と maxTokens を上書きできます。
トラブルシューティング
Ollama が検出されない
Ollama が実行中であること、OLLAMA_API_KEY(または auth profile)を設定したこと、そして明示的な models.providers.ollama エントリーを定義していないことを確認してください。
また、API に到達可能であることも確認してください。
curl http://localhost:11434/api/tags
利用可能なモデルがない
モデルが一覧に出ない場合は、次のいずれかです。
- モデルをローカルで pull する、または
models.providers.ollama にモデルを明示的に定義する。
モデルを追加するには:
ollama list # インストール済みモデルを確認
ollama pull glm-4.7-flash
ollama pull gpt-oss:20b
ollama pull llama3.3 # または別のモデル
Connection refused
Ollama が正しいポートで動作しているか確認してください。
# Ollama が動作中か確認
ps aux | grep ollama
# または Ollama を再起動
ollama serve
関連項目