Ana içeriğe atla

Ollama

Ollama, makinenizde açık kaynak modeller çalıştırmayı kolaylaştıran yerel bir LLM çalışma zamanıdır. OpenClaw, Ollama’nın yerel API’siyle (/api/chat) entegre olur, akış ve araç çağırmayı destekler ve OLLAMA_API_KEY (veya bir auth profili) ile etkinleştirmeyi seçtiğinizde ve açık bir models.providers.ollama girdisi tanımlamadığınızda yerel Ollama modellerini otomatik olarak keşfedebilir.
Uzak Ollama kullanıcıları: OpenClaw ile /v1 OpenAI uyumlu URL’yi (http://host:11434/v1) kullanmayın. Bu, araç çağırmayı bozar ve modeller ham araç JSON’unu düz metin olarak çıkarabilir. Bunun yerine yerel Ollama API URL’sini kullanın: baseUrl: "http://host:11434" (/v1 olmadan).

Hızlı başlangıç

Onboarding (önerilen)

Ollama kurmanın en hızlı yolu onboarding üzerinden geçer:
openclaw onboard
Sağlayıcı listesinden Ollama seçin. Onboarding şunları yapar:
  1. Ollama örneğinize erişilebilen Ollama temel URL’sini sorar (varsayılan http://127.0.0.1:11434).
  2. Cloud + Local (bulut modelleri ve yerel modeller) veya Local (yalnızca yerel modeller) seçmenize izin verir.
  3. Cloud + Local seçerseniz ve ollama.com’da oturum açmamışsanız tarayıcıda bir oturum açma akışı açar.
  4. Kullanılabilir modelleri keşfeder ve varsayılanlar önerir.
  5. Seçilen model yerelde mevcut değilse onu otomatik olarak çeker.
Etkileşimsiz mod da desteklenir:
openclaw onboard --non-interactive \
  --auth-choice ollama \
  --accept-risk
İsteğe bağlı olarak özel bir temel URL veya model belirtebilirsiniz:
openclaw onboard --non-interactive \
  --auth-choice ollama \
  --custom-base-url "http://ollama-host:11434" \
  --custom-model-id "qwen3.5:27b" \
  --accept-risk

Manuel kurulum

  1. Ollama’yı kurun: https://ollama.com/download
  2. Yerel çıkarım istiyorsanız yerel bir model çekin:
ollama pull glm-4.7-flash
# veya
ollama pull gpt-oss:20b
# veya
ollama pull llama3.3
  1. Bulut modellerini de istiyorsanız oturum açın:
ollama signin
  1. Onboarding çalıştırın ve Ollama seçin:
openclaw onboard
  • Local: yalnızca yerel modeller
  • Cloud + Local: yerel modeller ve bulut modelleri
  • kimi-k2.5:cloud, minimax-m2.5:cloud ve glm-5:cloud gibi bulut modelleri için yerel ollama pull gerekmez
OpenClaw şu anda şunları önerir:
  • yerel varsayılan: glm-4.7-flash
  • bulut varsayılanları: kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud
  1. Manuel kurulum tercih ediyorsanız Ollama’yı doğrudan OpenClaw için etkinleştirin (herhangi bir değer çalışır; Ollama gerçek bir anahtar gerektirmez):
# Ortam değişkenini ayarlayın
export OLLAMA_API_KEY="ollama-local"

# Veya yapılandırma dosyanızda yapılandırın
openclaw config set models.providers.ollama.apiKey "ollama-local"
  1. Modelleri inceleyin veya değiştirin:
openclaw models list
openclaw models set ollama/glm-4.7-flash
  1. Ya da yapılandırmada varsayılanı ayarlayın:
{
  agents: {
    defaults: {
      model: { primary: "ollama/glm-4.7-flash" },
    },
  },
}

Model keşfi (örtük sağlayıcı)

OLLAMA_API_KEY (veya bir auth profili) ayarladığınızda ve models.providers.ollama tanımlamadığınızda, OpenClaw yerel Ollama örneğindeki modelleri http://127.0.0.1:11434 adresinden keşfeder:
  • /api/tags sorgulanır
  • Kullanılabilir olduğunda contextWindow okumak için en iyi çabayla /api/show aramaları kullanılır
  • Model adı sezgisiyle (r1, reasoning, think) reasoning işaretlenir
  • maxTokens, OpenClaw’ın kullandığı varsayılan Ollama maksimum token sınırına ayarlanır
  • Tüm maliyetler 0 olarak ayarlanır
Bu, katalogu yerel Ollama örneğiyle uyumlu tutarken manuel model girdilerinden kaçınır. Hangi modellerin kullanılabilir olduğunu görmek için:
ollama list
openclaw models list
Yeni bir model eklemek için Ollama ile çekmeniz yeterlidir:
ollama pull mistral
Yeni model otomatik olarak keşfedilir ve kullanılabilir hale gelir. models.providers.ollama öğesini açıkça ayarlarsanız otomatik keşif atlanır ve modelleri manuel olarak tanımlamanız gerekir (aşağıya bakın).

Yapılandırma

Temel kurulum (örtük keşif)

Ollama’yı etkinleştirmenin en basit yolu ortam değişkeni kullanmaktır:
export OLLAMA_API_KEY="ollama-local"

Açık kurulum (manuel modeller)

Aşağıdaki durumlarda açık yapılandırma kullanın:
  • Ollama başka bir ana makinede/bağlantı noktasında çalışıyordur.
  • Belirli bağlam pencerelerini veya model listelerini zorlamak istiyorsunuzdur.
  • Tamamen manuel model tanımları istiyorsunuzdur.
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434",
        apiKey: "ollama-local",
        api: "ollama",
        models: [
          {
            id: "gpt-oss:20b",
            name: "GPT-OSS 20B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 8192,
            maxTokens: 8192 * 10
          }
        ]
      }
    }
  }
}
OLLAMA_API_KEY ayarlanmışsa, sağlayıcı girdisindeki apiKey alanını atlayabilirsiniz; OpenClaw bunu kullanılabilirlik denetimleri için doldurur.

Özel temel URL (açık yapılandırma)

Ollama farklı bir ana makinede veya bağlantı noktasında çalışıyorsa (açık yapılandırma otomatik keşfi devre dışı bırakır, bu yüzden modelleri manuel tanımlayın):
{
  models: {
    providers: {
      ollama: {
        apiKey: "ollama-local",
        baseUrl: "http://ollama-host:11434", // /v1 yok - yerel Ollama API URL'sini kullanın
        api: "ollama", // Yerel araç çağırma davranışını garanti etmek için açıkça ayarlayın
      },
    },
  },
}
URL’ye /v1 eklemeyin. /v1 yolu OpenAI uyumlu modu kullanır; bu modda araç çağırma güvenilir değildir. Yol son eki olmayan temel Ollama URL’sini kullanın.

Model seçimi

Yapılandırıldıktan sonra tüm Ollama modelleriniz kullanılabilir olur:
{
  agents: {
    defaults: {
      model: {
        primary: "ollama/gpt-oss:20b",
        fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
      },
    },
  },
}

Bulut modelleri

Bulut modelleri, bulutta barındırılan modelleri (örneğin kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud) yerel modellerinizle birlikte çalıştırmanıza olanak tanır. Bulut modellerini kullanmak için kurulum sırasında Cloud + Local modunu seçin. Sihirbaz oturum açıp açmadığınızı denetler ve gerektiğinde tarayıcıda oturum açma akışı açar. Kimlik doğrulama doğrulanamazsa sihirbaz yerel model varsayılanlarına geri döner. Doğrudan ollama.com/signin adresinde de oturum açabilirsiniz. OpenClaw ayrıca paketlenmiş bir web_search sağlayıcısı olarak Ollama Web Search desteği sunar.
  • Yapılandırılmış Ollama ana makinenizi kullanır (models.providers.ollama.baseUrl ayarlıysa onu, değilse http://127.0.0.1:11434).
  • Anahtarsızdır.
  • Ollama’nın çalışmasını ve ollama signin ile oturum açılmış olmasını gerektirir.
openclaw onboard veya openclaw configure --section web sırasında Ollama Web Search seçin ya da şunu ayarlayın:
{
  tools: {
    web: {
      search: {
        provider: "ollama",
      },
    },
  },
}
Tam kurulum ve davranış ayrıntıları için Ollama Web Search bölümüne bakın.

Gelişmiş

Reasoning modelleri

OpenClaw varsayılan olarak deepseek-r1, reasoning veya think gibi adlara sahip modelleri reasoning yetenekli olarak değerlendirir:
ollama pull deepseek-r1:32b

Model Maliyetleri

Ollama ücretsizdir ve yerelde çalışır, bu nedenle tüm model maliyetleri $0 olarak ayarlanır.

Akış Yapılandırması

OpenClaw’ın Ollama entegrasyonu varsayılan olarak yerel Ollama API’sini (/api/chat) kullanır; bu API akışı ve araç çağırmayı aynı anda tam olarak destekler. Özel bir yapılandırma gerekmez.

Eski OpenAI Uyumlu Mod

Araç çağırma OpenAI uyumlu modda güvenilir değildir. Bu modu yalnızca bir proxy için OpenAI biçimine ihtiyaç duyuyorsanız ve yerel araç çağırma davranışına bağlı değilseniz kullanın.
Bunun yerine OpenAI uyumlu uç noktayı kullanmanız gerekiyorsa (örneğin yalnızca OpenAI biçimini destekleyen bir proxy arkasında), api: "openai-completions" değerini açıkça ayarlayın:
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: true, // varsayılan: true
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}
Bu mod aynı anda akış + araç çağırmayı desteklemeyebilir. Model yapılandırmasında params: { streaming: false } ile akışı devre dışı bırakmanız gerekebilir. Ollama ile api: "openai-completions" kullanıldığında, OpenClaw varsayılan olarak options.num_ctx ekler; böylece Ollama sessizce 4096 bağlam penceresine geri dönmez. Proxy/yukarı akış bilinmeyen options alanlarını reddediyorsa bu davranışı devre dışı bırakın:
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: false,
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}

Bağlam pencereleri

Otomatik keşfedilen modeller için OpenClaw, kullanılabiliyorsa Ollama tarafından bildirilen bağlam penceresini kullanır; aksi takdirde OpenClaw’ın kullandığı varsayılan Ollama bağlam penceresine geri döner. Açık sağlayıcı yapılandırmasında contextWindow ve maxTokens değerlerini geçersiz kılabilirsiniz.

Sorun giderme

Ollama algılanmıyor

Ollama’nın çalıştığından ve OLLAMA_API_KEY (veya bir auth profili) ayarladığınızdan ve açık bir models.providers.ollama girdisi tanımlamadığınızdan emin olun:
ollama serve
Ve API’nin erişilebilir olduğunu doğrulayın:
curl http://localhost:11434/api/tags

Kullanılabilir model yok

Modeliniz listelenmiyorsa şu seçeneklerden birini kullanın:
  • Modeli yerel olarak çekin veya
  • Modeli models.providers.ollama içinde açıkça tanımlayın.
Model eklemek için:
ollama list  # Kurulu olanları görün
ollama pull glm-4.7-flash
ollama pull gpt-oss:20b
ollama pull llama3.3     # Veya başka bir model

Bağlantı reddedildi

Ollama’nın doğru bağlantı noktasında çalıştığını kontrol edin:
# Ollama'nın çalışıp çalışmadığını kontrol edin
ps aux | grep ollama

# Veya Ollama'yı yeniden başlatın
ollama serve

Ayrıca bkz.