Yerel modeller
Yerel kullanım mümkündür, ancak OpenClaw geniş bağlam ve istem enjeksiyonuna karşı güçlü savunmalar bekler. Küçük kartlar bağlamı kısaltır ve güvenliği sızdırır. Yüksek hedefleyin: ≥2 tam donanımlı Mac Studio veya eşdeğer GPU sistemi (~$30k+). Tek bir 24 GB GPU yalnızca daha hafif istemlerde ve daha yüksek gecikmeyle işe yarar. Çalıştırabildiğiniz en büyük / tam boyutlu model varyantını kullanın; aşırı nicemlenmiş veya “küçük” checkpoint’ler istem enjeksiyonu riskini artırır (bkz. Security). En düşük sürtünmeli yerel kurulum istiyorsanız, Ollama veopenclaw onboard ile başlayın. Bu sayfa, daha üst düzey yerel yığınlar ve özel OpenAI uyumlu yerel sunucular için görüşlü rehberdir.
Önerilen: LM Studio + büyük yerel model (Responses API)
Şu anki en iyi yerel yığın. LM Studio içinde büyük bir model yükleyin (örneğin tam boyutlu bir Qwen, DeepSeek veya Llama derlemesi), yerel sunucuyu etkinleştirin (varsayılanhttp://127.0.0.1:1234) ve akıl yürütmeyi son metinden ayrı tutmak için Responses API kullanın.
- LM Studio’yu yükleyin: https://lmstudio.ai
- LM Studio içinde mevcut en büyük model derlemesini indirin (“small”/yoğun biçimde nicemlenmiş varyantlardan kaçının), sunucuyu başlatın ve
http://127.0.0.1:1234/v1/modelsiçinde listelendiğini doğrulayın. my-local-modeldeğerini LM Studio’da gösterilen gerçek model kimliğiyle değiştirin.- Modeli yüklü tutun; soğuk yükleme başlangıç gecikmesi ekler.
- LM Studio derlemeniz farklıysa
contextWindow/maxTokensdeğerlerini ayarlayın. - WhatsApp için yalnızca son metnin gönderilmesi amacıyla Responses API’ye bağlı kalın.
models.mode: "merge" kullanın.
Hibrit yapılandırma: barındırılan birincil, yerel yedek
Önce yerel, barındırılan güvenlik ağıyla
Birincil ve yedek sırasını değiştirin; yerel kutu devre dışı kaldığında Sonnet veya Opus’a geri dönebilmek için aynı sağlayıcı bloğunu vemodels.mode: "merge" ayarını koruyun.
Bölgesel barındırma / veri yönlendirme
- Barındırılan MiniMax/Kimi/GLM varyantları OpenRouter üzerinde bölgeye sabitlenmiş uç noktalarla da vardır (ör. ABD’de barındırılan). Trafiği seçtiğiniz yargı alanında tutarken Anthropic/OpenAI yedeklerini de kullanabilmek için orada bölgesel varyantı seçin ve
models.mode: "merge"kullanmaya devam edin. - Yalnızca yerel kullanım, gizlilik açısından en güçlü yoldur; barındırılan bölgesel yönlendirme, sağlayıcı özelliklerine ihtiyaç duyduğunuz ama veri akışı üzerinde kontrol istediğiniz durumlarda orta yoldur.
Diğer OpenAI uyumlu yerel proxy’ler
vLLM, LiteLLM, OAI-proxy veya özel gateway’ler, OpenAI tarzı bir/v1 uç noktası sunuyorlarsa çalışır. Yukarıdaki sağlayıcı bloğunu kendi uç noktanız ve model kimliğinizle değiştirin:
models.mode: "merge" kullanmaya devam edin.
Yerel/proxy’lenmiş /v1 arka uçları için davranış notu:
- OpenClaw bunları yerel OpenAI uç noktaları olarak değil, proxy tarzı OpenAI uyumlu rotalar olarak ele alır
- yerel OpenAI’ye özgü istek şekillendirme burada uygulanmaz:
service_tieryoktur, Responsesstoreyoktur, OpenAI akıl yürütme uyumluluğu yük şekillendirmesi yoktur ve istem önbelleği ipuçları yoktur - gizli OpenClaw atıf başlıkları (
originator,version,User-Agent) bu özel proxy URL’lerine eklenmez
- Bazı sunucular Chat Completions üzerinde yapılandırılmış içerik bölümü dizileri değil, yalnızca string
messages[].contentkabul eder. Bu uç noktalar içinmodels.providers.<provider>.models[].compat.requiresStringContent: trueayarlayın. - Daha küçük veya daha katı bazı yerel arka uçlar, özellikle araç şemaları dahil edildiğinde, OpenClaw’un tam ajan çalışma zamanı istem şekliyle kararsız olabilir. Arka uç küçük doğrudan
/v1/chat/completionsçağrılarında çalışıyor ancak normal OpenClaw ajan turlarında başarısız oluyorsa, öncemodels.providers.<provider>.models[].compat.supportsTools: falsedeneyin. - Arka uç hâlâ yalnızca daha büyük OpenClaw çalıştırmalarında başarısız oluyorsa, kalan sorun genellikle OpenClaw’un taşıma katmanı değil, üst akış model/sunucu kapasitesi veya bir arka uç hatasıdır.
Sorun giderme
- Gateway proxy’ye ulaşabiliyor mu?
curl http://127.0.0.1:1234/v1/models. - LM Studio modeli kaldırılmış mı? Yeniden yükleyin; soğuk başlangıç yaygın bir “takılı kalma” nedenidir.
- Bağlam hataları mı var?
contextWindowdeğerini düşürün veya sunucu sınırınızı artırın. - OpenAI uyumlu sunucu
messages[].content ... expected a stringdöndürüyor mu? Bu model girdisinecompat.requiresStringContent: trueekleyin. - Doğrudan küçük
/v1/chat/completionsçağrıları çalışıyor amaopenclaw infer model runGemma veya başka bir yerel modelde başarısız mı oluyor? Öncecompat.supportsTools: falseile araç şemalarını devre dışı bırakın, sonra yeniden test edin. Sunucu hâlâ yalnızca daha büyük OpenClaw istemlerinde çöküyorsa, bunu üst akış sunucu/model sınırlaması olarak değerlendirin. - Güvenlik: yerel modeller sağlayıcı tarafı filtreleri atlar; istem enjeksiyonunun etki alanını sınırlamak için ajanları dar tutun ve sıkıştırmayı açık bırakın.