OpenClaw ผสานรวมกับ API แบบเนทีฟของ Ollama (Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
/api/chat) สำหรับโมเดลคลาวด์แบบโฮสต์และเซิร์ฟเวอร์ Ollama แบบ local/self-hosted คุณสามารถใช้ Ollama ได้สามโหมด: Cloud + Local ผ่านโฮสต์ Ollama ที่เข้าถึงได้, Cloud only กับ https://ollama.com, หรือ Local only กับโฮสต์ Ollama ที่เข้าถึงได้
การตั้งค่าผู้ให้บริการ Ollama ใช้ baseUrl เป็นคีย์หลัก OpenClaw ยังยอมรับ baseURL เพื่อความเข้ากันได้กับตัวอย่างสไตล์ OpenAI SDK แต่การตั้งค่าใหม่ควรใช้ baseUrl
กฎการยืนยันตัวตน
โฮสต์ Local และ LAN
โฮสต์ Local และ LAN
ollama-local เฉพาะกับ URL ฐานของ Ollama แบบ loopback, เครือข่ายส่วนตัว, .local และชื่อโฮสต์เปล่าเท่านั้นโฮสต์ระยะไกลและ Ollama Cloud
โฮสต์ระยะไกลและ Ollama Cloud
https://ollama.com) ต้องใช้ข้อมูลรับรองจริงผ่าน OLLAMA_API_KEY, โปรไฟล์การยืนยันตัวตน หรือ apiKey ของผู้ให้บริการID ผู้ให้บริการแบบกำหนดเอง
ID ผู้ให้บริการแบบกำหนดเอง
api: "ollama" จะทำตามกฎเดียวกัน ตัวอย่างเช่น ผู้ให้บริการ ollama-remote ที่ชี้ไปยังโฮสต์ Ollama บน LAN ส่วนตัวสามารถใช้ apiKey: "ollama-local" ได้ และ sub-agent จะ resolve ตัวทำเครื่องหมายนั้นผ่าน hook ของผู้ให้บริการ Ollama แทนที่จะถือว่าเป็นข้อมูลรับรองที่หายไป การค้นหาหน่วยความจำยังสามารถตั้งค่า agents.defaults.memorySearch.provider เป็น ID ผู้ให้บริการแบบกำหนดเองนั้น เพื่อให้ embeddings ใช้ endpoint Ollama ที่ตรงกันโปรไฟล์การยืนยันตัวตน
โปรไฟล์การยืนยันตัวตน
auth-profiles.json เก็บข้อมูลรับรองสำหรับ ID ผู้ให้บริการ ใส่การตั้งค่า endpoint (baseUrl, api, ID โมเดล, headers, timeouts) ไว้ใน models.providers.<id> ไฟล์ auth-profile แบบ flat รุ่นเก่า เช่น { "ollama-windows": { "apiKey": "ollama-local" } } ไม่ใช่รูปแบบ runtime ให้รัน openclaw doctor --fix เพื่อเขียนใหม่เป็นโปรไฟล์ API-key แบบ canonical ollama-windows:default พร้อมสำรองข้อมูล baseUrl ในไฟล์นั้นเป็น noise เพื่อความเข้ากันได้ และควรย้ายไปยังการตั้งค่าผู้ให้บริการขอบเขต embedding ของหน่วยความจำ
ขอบเขต embedding ของหน่วยความจำ
- คีย์ระดับผู้ให้บริการจะถูกส่งไปยังโฮสต์ Ollama ของผู้ให้บริการนั้นเท่านั้น
agents.*.memorySearch.remote.apiKeyจะถูกส่งไปยังโฮสต์ embedding ระยะไกลของมันเท่านั้น- ค่า env
OLLAMA_API_KEYล้วนจะถูกถือเป็น convention ของ Ollama Cloud และโดยค่าเริ่มต้นจะไม่ถูกส่งไปยังโฮสต์ local หรือ self-hosted
เริ่มต้นใช้งาน
เลือกวิธีตั้งค่าและโหมดที่คุณต้องการ- Onboarding (แนะนำ)
- ตั้งค่าด้วยตนเอง
เลือกโหมดของคุณ
- Cloud + Local — โฮสต์ Ollama แบบ local พร้อมโมเดลคลาวด์ที่ route ผ่านโฮสต์นั้น
- Cloud only — โมเดล Ollama แบบโฮสต์ผ่าน
https://ollama.com - Local only — โมเดล local เท่านั้น
เลือกโมเดล
Cloud only จะขอ OLLAMA_API_KEY และแนะนำค่าเริ่มต้นของคลาวด์แบบโฮสต์ Cloud + Local และ Local only จะขอ URL ฐานของ Ollama, ค้นหาโมเดลที่มีอยู่ และ pull โมเดล local ที่เลือกให้อัตโนมัติหากยังไม่มี เมื่อ Ollama รายงานแท็ก :latest ที่ติดตั้งแล้ว เช่น gemma4:latest การตั้งค่าจะแสดงโมเดลที่ติดตั้งแล้วนั้นเพียงครั้งเดียว แทนที่จะแสดงทั้ง gemma4 และ gemma4:latest หรือ pull alias เปล่าอีกครั้ง Cloud + Local ยังตรวจสอบด้วยว่าโฮสต์ Ollama นั้นลงชื่อเข้าใช้เพื่อเข้าถึงคลาวด์แล้วหรือไม่โหมดไม่โต้ตอบ
โมเดลคลาวด์
- Cloud + Local
- Cloud only
- Local only
Cloud + Local ใช้โฮสต์ Ollama ที่เข้าถึงได้เป็นจุดควบคุมสำหรับทั้งโมเดล local และโมเดลคลาวด์ นี่คือ flow แบบไฮบริดที่ Ollama แนะนำใช้ Cloud + Local ระหว่างการตั้งค่า OpenClaw จะขอ URL ฐานของ Ollama, ค้นหาโมเดล local จากโฮสต์นั้น และตรวจสอบว่าโฮสต์ลงชื่อเข้าใช้เพื่อเข้าถึงคลาวด์ด้วย ollama signin แล้วหรือไม่ เมื่อโฮสต์ลงชื่อเข้าใช้แล้ว OpenClaw ยังจะแนะนำค่าเริ่มต้นของคลาวด์แบบโฮสต์ เช่น kimi-k2.5:cloud, minimax-m2.7:cloud และ glm-5.1:cloudหากโฮสต์ยังไม่ได้ลงชื่อเข้าใช้ OpenClaw จะคงการตั้งค่าเป็น local-only จนกว่าคุณจะรัน ollama signinการค้นหาโมเดล (ผู้ให้บริการโดยนัย)
เมื่อคุณตั้งค่าOLLAMA_API_KEY (หรือโปรไฟล์การยืนยันตัวตน) และ ไม่ได้ กำหนด models.providers.ollama หรือผู้ให้บริการระยะไกลแบบกำหนดเองอื่นที่มี api: "ollama" OpenClaw จะค้นหาโมเดลจาก instance Ollama แบบ local ที่ http://127.0.0.1:11434
| พฤติกรรม | รายละเอียด |
|---|---|
| คำขอ catalog | คิวรี /api/tags |
| การตรวจหาความสามารถ | ใช้การ lookup /api/show แบบ best-effort เพื่ออ่าน contextWindow, พารามิเตอร์ Modelfile num_ctx ที่ขยายแล้ว และความสามารถรวมถึง vision/tools |
| โมเดล Vision | โมเดลที่มีความสามารถ vision ที่รายงานโดย /api/show จะถูกทำเครื่องหมายว่ารองรับรูปภาพ (input: ["text", "image"]) ดังนั้น OpenClaw จะ inject รูปภาพเข้า prompt โดยอัตโนมัติ |
| การตรวจหา Reasoning | ใช้ความสามารถจาก /api/show เมื่อมี รวมถึง thinking; fallback ไปยัง heuristic ตามชื่อโมเดล (r1, reasoning, think) เมื่อ Ollama ไม่ส่งความสามารถ |
| ขีดจำกัด token | ตั้งค่า maxTokens เป็นเพดาน max-token เริ่มต้นของ Ollama ที่ OpenClaw ใช้ |
| ค่าใช้จ่าย | ตั้งค่าค่าใช้จ่ายทั้งหมดเป็น 0 |
ollama/<pulled-model>:latest ใน local infer model run; OpenClaw จะ resolve โมเดลที่ติดตั้งแล้วนั้นจาก catalog live ของ Ollama โดยไม่ต้องมีรายการ models.json ที่เขียนด้วยมือ
สำหรับโฮสต์ Ollama ที่ลงชื่อเข้าใช้แล้ว โมเดล :cloud บางตัวอาจใช้งานได้ผ่าน /api/chat
และ /api/show ก่อนที่จะปรากฏใน /api/tags เมื่อคุณเลือก ref
เต็ม ollama/<model>:cloud อย่างชัดเจน OpenClaw จะตรวจสอบโมเดลที่หายไปนั้นแบบตรงตัวด้วย
/api/show และเพิ่มเข้า runtime catalog เฉพาะเมื่อ Ollama ยืนยัน metadata
ของโมเดลเท่านั้น การพิมพ์ผิดยังคงล้มเหลวเป็นโมเดลที่ไม่รู้จัก แทนที่จะถูกสร้างอัตโนมัติ
infer model run พร้อม ref โมเดล Ollama แบบเต็ม:
infer model run วิธีนี้จะส่ง prompt และรูปภาพโดยตรงไปยัง
โมเดล vision ของ Ollama ที่เลือก โดยไม่โหลดเครื่องมือแชต หน่วยความจำ หรือ context
เซสชันก่อนหน้า:
model run --file ยอมรับไฟล์ที่ตรวจพบเป็น image/* รวมถึง input PNG,
JPEG และ WebP ทั่วไป ไฟล์ที่ไม่ใช่รูปภาพจะถูกปฏิเสธก่อนเรียก Ollama
สำหรับการรู้จำเสียง ให้ใช้ openclaw infer audio transcribe แทน
เมื่อคุณสลับ conversation ด้วย /model ollama/<model> OpenClaw จะถือว่า
เป็นการเลือกของผู้ใช้อย่างตรงตัว หาก baseUrl ของ Ollama ที่ตั้งค่าไว้
เข้าถึงไม่ได้ การตอบกลับถัดไปจะล้มเหลวด้วย error ของผู้ให้บริการ แทนที่จะตอบ
จากโมเดล fallback อื่นที่ตั้งค่าไว้อย่างเงียบๆ
งาน Cron แบบแยกโดดเดี่ยวจะทำการตรวจสอบความปลอดภัยในเครื่องเพิ่มอีกหนึ่งขั้นก่อนเริ่มรอบของเอเจนต์ หากโมเดลที่เลือกแก้ค่าไปเป็นผู้ให้บริการ Ollama แบบโลคัล เครือข่ายส่วนตัว หรือ .local และไม่สามารถเข้าถึง /api/tags ได้ OpenClaw จะบันทึกการรัน Cron นั้นเป็น skipped พร้อม ollama/<model> ที่เลือกไว้ในข้อความข้อผิดพลาด การตรวจล่วงหน้าของเอนด์พอยต์จะถูกแคชไว้ 5 นาที ดังนั้นงาน Cron หลายงานที่ชี้ไปยังดีมอน Ollama ตัวเดียวกันที่หยุดอยู่จะไม่เริ่มคำขอโมเดลที่ล้มเหลวทั้งหมดพร้อมกัน
ตรวจสอบแบบสดสำหรับเส้นทางข้อความโลคัล เส้นทางสตรีมเนทีฟ และ embeddings กับ Ollama โลคัลด้วย:
models.providers.ollama อย่างชัดเจน หรือกำหนดค่าผู้ให้บริการระยะไกลแบบกำหนดเอง เช่น models.providers.ollama-cloud โดยใช้ api: "ollama" การค้นพบอัตโนมัติจะถูกข้าม และคุณต้องกำหนดโมเดลด้วยตนเอง ผู้ให้บริการแบบกำหนดเองที่เป็นลูปแบ็ก เช่น http://127.0.0.2:11434 ยังถือว่าเป็นโลคัล ดูส่วนการกำหนดค่าแบบชัดเจนด้านล่างวิชันและคำอธิบายรูปภาพ
Plugin Ollama ที่รวมมาให้จะลงทะเบียน Ollama เป็นผู้ให้บริการทำความเข้าใจสื่อที่รองรับรูปภาพ ซึ่งทำให้ OpenClaw สามารถส่งต่อคำขอคำอธิบายรูปภาพแบบชัดเจนและค่าเริ่มต้นของโมเดลรูปภาพที่กำหนดค่าไว้ผ่านโมเดลวิชันของ Ollama แบบโลคัลหรือแบบโฮสต์ได้ สำหรับวิชันโลคัล ให้ดึงโมเดลที่รองรับรูปภาพ:--model ต้องเป็นอ้างอิง <provider/model> แบบเต็ม เมื่อมีการตั้งค่าไว้ openclaw infer image describe จะรันโมเดลนั้นโดยตรง แทนที่จะข้ามคำอธิบายเพราะโมเดลรองรับวิชันแบบเนทีฟ
ใช้ infer image describe เมื่อคุณต้องการโฟลว์ผู้ให้บริการทำความเข้าใจรูปภาพของ OpenClaw, agents.defaults.imageModel ที่กำหนดค่าไว้ และรูปแบบเอาต์พุตคำอธิบายรูปภาพ ใช้ infer model run --file เมื่อคุณต้องการตรวจสอบโมเดลมัลติโมดัลแบบดิบด้วยพรอมป์แบบกำหนดเองและรูปภาพหนึ่งรูปหรือมากกว่า
หากต้องการทำให้ Ollama เป็นโมเดลทำความเข้าใจรูปภาพเริ่มต้นสำหรับสื่อขาเข้า ให้กำหนดค่า agents.defaults.imageModel:
ollama/<model> แบบเต็ม หากโมเดลเดียวกันถูกระบุไว้ใต้ models.providers.ollama.models พร้อม input: ["text", "image"] และไม่มีผู้ให้บริการรูปภาพอื่นที่กำหนดค่าไว้เปิดเผย ID โมเดลเปล่าเดียวกันนั้น OpenClaw จะปรับอ้างอิง imageModel แบบเปล่า เช่น qwen2.5vl:7b ให้เป็น ollama/qwen2.5vl:7b ด้วย หากมีผู้ให้บริการรูปภาพที่กำหนดค่าไว้มากกว่าหนึ่งรายมี ID เปล่าเดียวกัน ให้ใช้คำนำหน้าผู้ให้บริการอย่างชัดเจน
โมเดลวิชันโลคัลที่ช้าอาจต้องใช้เวลาหมดเวลาของการทำความเข้าใจรูปภาพนานกว่าโมเดลคลาวด์ โมเดลเหล่านี้ยังอาจล่มหรือหยุดเมื่อ Ollama พยายามจัดสรรคอนเท็กซ์วิชันเต็มตามที่ประกาศไว้บนฮาร์ดแวร์ที่มีข้อจำกัด ตั้งค่าเวลาหมดเวลาของความสามารถ และจำกัด num_ctx ในรายการโมเดลเมื่อคุณต้องการเพียงรอบคำอธิบายรูปภาพปกติ:
image แบบชัดเจนที่เอเจนต์สามารถเรียกใช้ระหว่างรอบได้ models.providers.ollama.timeoutSeconds ระดับผู้ให้บริการยังคงควบคุมตัวป้องกันคำขอ HTTP ของ Ollama พื้นฐานสำหรับการเรียกโมเดลปกติ
ตรวจสอบแบบสดสำหรับเครื่องมือรูปภาพแบบชัดเจนกับ Ollama โลคัลด้วย:
models.providers.ollama.models ด้วยตนเอง ให้ทำเครื่องหมายโมเดลวิชันว่ารองรับอินพุตรูปภาพ:
/api/show รายงานความสามารถด้านวิชัน
การกำหนดค่า
- Basic (implicit discovery)
- Explicit (manual models)
- Custom base URL
สูตรที่ใช้บ่อย
ใช้สิ่งเหล่านี้เป็นจุดเริ่มต้นและแทนที่ ID โมเดลด้วยชื่อที่ตรงจากollama list หรือ openclaw models list --provider ollama
Local model with auto-discovery
Local model with auto-discovery
models.providers.ollama เว้นแต่คุณต้องการกำหนดโมเดลด้วยตนเองLAN Ollama host with manual models
LAN Ollama host with manual models
/v1contextWindow คือคอนเท็กซ์บัดเจ็ตฝั่ง OpenClaw ส่วน params.num_ctx จะถูกส่งไปยัง Ollama สำหรับคำขอ จัดให้สองค่านี้ตรงกันเมื่อฮาร์ดแวร์ของคุณไม่สามารถรันคอนเท็กซ์เต็มตามที่โมเดลประกาศไว้ได้Ollama Cloud only
Ollama Cloud only
Cloud plus local through a signed-in daemon
Cloud plus local through a signed-in daemon
ollama signin และควรให้บริการทั้งโมเดลโลคัลและโมเดล :cloudMultiple Ollama hosts
Multiple Ollama hosts
ollama-large/qwen3.5:27b จะไปถึง Ollama เป็น qwen3.5:27bLean local model profile
Lean local model profile
compat.supportsTools: false เฉพาะเมื่อโมเดลหรือเซิร์ฟเวอร์ล้มเหลวกับสคีมาของเครื่องมืออย่างเชื่อถือได้เท่านั้น การตั้งค่านี้แลกความสามารถของเอเจนต์กับความเสถียร
localModelLean จะนำเครื่องมือเบราว์เซอร์, cron และข้อความออกจากพื้นผิวของเอเจนต์ แต่จะไม่เปลี่ยน context รันไทม์หรือโหมดการคิดของ Ollama จับคู่กับ params.num_ctx และ params.thinking: false ที่ระบุชัดเจนสำหรับโมเดลคิดแบบ Qwen ขนาดเล็กที่วนซ้ำหรือใช้โควตาการตอบสนองไปกับการให้เหตุผลที่ซ่อนอยู่การเลือกโมเดล
เมื่อกำหนดค่าแล้ว โมเดล Ollama ทั้งหมดของคุณจะพร้อมใช้งาน:ollama-spark/qwen3:32b OpenClaw จะตัดเฉพาะ prefix นั้นออกก่อนเรียก Ollama เพื่อให้เซิร์ฟเวอร์ได้รับ qwen3:32b
สำหรับโมเดลโลคัลที่ช้า ควรปรับแต่งคำขอในขอบเขตผู้ให้บริการก่อนเพิ่ม timeout รันไทม์ของเอเจนต์ทั้งหมด:
timeoutSeconds ใช้กับคำขอ HTTP ของโมเดล รวมถึงการตั้งค่าการเชื่อมต่อ, headers, การสตรีม body และการยกเลิก guarded-fetch โดยรวม params.keep_alive จะถูกส่งต่อไปยัง Ollama เป็น keep_alive ระดับบนสุดในคำขอ /api/chat แบบ native; ตั้งค่ารายโมเดลเมื่อเวลาโหลดในเทิร์นแรกเป็นคอขวด
การตรวจสอบอย่างรวดเร็ว
127.0.0.1 ด้วยโฮสต์ที่ใช้ใน baseUrl หาก curl ใช้งานได้แต่ OpenClaw ใช้งานไม่ได้ ให้ตรวจสอบว่า Gateway รันอยู่บนเครื่อง คอนเทนเนอร์ หรือบัญชีบริการอื่นหรือไม่
Ollama Web Search
OpenClaw รองรับ Ollama Web Search เป็นผู้ให้บริการweb_search ที่รวมมาในชุด
| คุณสมบัติ | รายละเอียด |
|---|---|
| โฮสต์ | ใช้โฮสต์ Ollama ที่คุณกำหนดค่าไว้ (models.providers.ollama.baseUrl เมื่อตั้งค่าไว้ มิฉะนั้นใช้ http://127.0.0.1:11434); https://ollama.com ใช้ API ที่โฮสต์โดยตรง |
| การยืนยันตัวตน | ไม่ต้องใช้คีย์สำหรับโฮสต์ Ollama โลคัลที่ลงชื่อเข้าใช้แล้ว; ใช้ OLLAMA_API_KEY หรือการยืนยันตัวตนของผู้ให้บริการที่กำหนดค่าไว้สำหรับการค้นหาโดยตรงผ่าน https://ollama.com หรือโฮสต์ที่ป้องกันด้วยการยืนยันตัวตน |
| ข้อกำหนด | โฮสต์โลคัล/โฮสต์เองต้องกำลังรันและลงชื่อเข้าใช้ด้วย ollama signin; การค้นหาผ่านโฮสต์โดยตรงต้องใช้ baseUrl: "https://ollama.com" พร้อมคีย์ Ollama API จริง |
openclaw onboard หรือ openclaw configure --section web หรือตั้งค่า:
/api/experimental/web_search ของ daemon สำหรับ https://ollama.com ระบบจะเรียก endpoint /api/web_search ที่โฮสต์ไว้โดยตรง
การกำหนดค่าขั้นสูง
โหมด OpenAI-compatible แบบเดิม
โหมด OpenAI-compatible แบบเดิม
api: "openai-completions" อย่างชัดเจน:params: { streaming: false } ในการกำหนดค่าโมเดลเมื่อใช้ api: "openai-completions" กับ Ollama OpenClaw จะ inject options.num_ctx ตามค่าเริ่มต้น เพื่อไม่ให้ Ollama ย้อนกลับไปใช้ context window 4096 อย่างเงียบ ๆ หาก proxy/upstream ของคุณปฏิเสธฟิลด์ options ที่ไม่รู้จัก ให้ปิดพฤติกรรมนี้:Context windows
Context windows
PARAMETER num_ctx ที่ใหญ่ขึ้นจาก Modelfiles แบบกำหนดเอง มิฉะนั้นจะย้อนกลับไปใช้ context window เริ่มต้นของ Ollama ที่ OpenClaw ใช้คุณสามารถตั้งค่าเริ่มต้น contextWindow, contextTokens และ maxTokens ระดับผู้ให้บริการสำหรับทุกโมเดลภายใต้ผู้ให้บริการ Ollama นั้น แล้ว override รายโมเดลเมื่อจำเป็น contextWindow คือ budget สำหรับ prompt และ Compaction ของ OpenClaw คำขอ Ollama แบบ native จะปล่อย options.num_ctx ไว้โดยไม่ตั้งค่า เว้นแต่คุณจะกำหนดค่า params.num_ctx อย่างชัดเจน เพื่อให้ Ollama ใช้ค่าเริ่มต้นของโมเดล, OLLAMA_CONTEXT_LENGTH หรือค่าตาม VRAM ของตัวเองได้ หากต้องการจำกัดหรือบังคับ context รันไทม์รายคำขอของ Ollama โดยไม่ต้องสร้าง Modelfile ใหม่ ให้ตั้งค่า params.num_ctx; ค่าที่ไม่ถูกต้อง, ศูนย์, ติดลบ และไม่จำกัดจะถูกละเว้น อะแดปเตอร์ Ollama ที่เข้ากันได้กับ OpenAI ยังคง inject options.num_ctx ตามค่าเริ่มต้นจาก params.num_ctx หรือ contextWindow ที่กำหนดค่าไว้; ปิดด้วย injectNumCtxForOpenAICompat: false หาก upstream ของคุณปฏิเสธ optionsรายการโมเดล Ollama แบบ native ยังรับตัวเลือก Ollama runtime ทั่วไปภายใต้ params รวมถึง temperature, top_p, top_k, min_p, num_predict, stop, repeat_penalty, num_batch, num_thread และ use_mmap OpenClaw ส่งต่อเฉพาะคีย์คำขอของ Ollama ดังนั้นพารามิเตอร์รันไทม์ของ OpenClaw เช่น streaming จะไม่รั่วไปยัง Ollama ใช้ params.think หรือ params.thinking เพื่อส่ง think ระดับบนสุดของ Ollama; false จะปิดการคิดระดับ API สำหรับโมเดลคิดแบบ Qwenagents.defaults.models["ollama/<model>"].params.num_ctx รายโมเดลก็ใช้ได้เช่นกัน หากกำหนดค่าทั้งสองแบบ รายการโมเดลของผู้ให้บริการที่ระบุชัดเจนจะชนะค่าเริ่มต้นของเอเจนต์การควบคุมการคิด
การควบคุมการคิด
think ระดับบนสุด ไม่ใช่ options.think โมเดลที่ค้นพบอัตโนมัติซึ่งการตอบกลับ /api/show มีความสามารถ thinking จะแสดง /think low, /think medium, /think high และ /think max; โมเดลที่ไม่คิดจะแสดงเฉพาะ /think offparams.think หรือ params.thinking รายโมเดลสามารถปิดหรือบังคับการคิดของ Ollama API สำหรับโมเดลที่กำหนดค่าไว้โดยเฉพาะได้ OpenClaw จะรักษาพารามิเตอร์โมเดลที่ระบุชัดเจนเหล่านั้นไว้เมื่อการรันที่ใช้งานอยู่มีเพียงค่าเริ่มต้นโดยนัย off; คำสั่งรันไทม์ที่ไม่ใช่ off เช่น /think medium ยังคง override การรันที่ใช้งานอยู่โมเดลการให้เหตุผล
โมเดลการให้เหตุผล
deepseek-r1, reasoning หรือ think รองรับการให้เหตุผลตามค่าเริ่มต้นค่าใช้จ่ายของโมเดล
ค่าใช้จ่ายของโมเดล
Memory embeddings
Memory embeddings
/api/embed ปัจจุบันของ Ollama และจัดชุด
ชิ้นส่วนหน่วยความจำหลายรายการเป็นคำขอ input เดียวเมื่อทำได้| คุณสมบัติ | ค่า |
|---|---|
| โมเดลเริ่มต้น | nomic-embed-text |
| Auto-pull | ใช่ — โมเดล embedding จะถูกดึงโดยอัตโนมัติหากยังไม่มีอยู่ในเครื่อง |
nomic-embed-text, qwen3-embedding และ mxbai-embed-large ชุดเอกสารหน่วยความจำจะคงรูปแบบดิบไว้ เพื่อให้ดัชนีที่มีอยู่ไม่ต้อง migrate รูปแบบหากต้องการเลือก Ollama เป็นผู้ให้บริการ embedding สำหรับการค้นหาหน่วยความจำ:การกำหนดค่าการสตรีม
การกำหนดค่าการสตรีม
/api/chat) เป็นค่าเริ่มต้น ซึ่งรองรับทั้งการสตรีมและการเรียกใช้เครื่องมือพร้อมกันอย่างสมบูรณ์ ไม่จำเป็นต้องกำหนดค่าพิเศษสำหรับคำขอ /api/chat แบบเนทีฟ OpenClaw ยังส่งต่อการควบคุมการคิดไปยัง Ollama โดยตรงด้วย: /think off และ openclaw agent --thinking off จะส่ง think: false ระดับบนสุด เว้นแต่มีการกำหนดค่า model params.think/params.thinking ไว้อย่างชัดเจน ส่วน /think low|medium|high จะส่งสตริงระดับความพยายาม think ระดับบนสุดที่ตรงกัน /think max จะถูกแมปเป็นระดับความพยายามแบบเนทีฟสูงสุดของ Ollama คือ think: "high"การแก้ไขปัญหา
ลูปการแครชของ WSL2 (รีบูตซ้ำ)
ลูปการแครชของ WSL2 (รีบูตซ้ำ)
ollama.service พร้อม Restart=always หากบริการนั้นเริ่มอัตโนมัติและโหลดโมเดลที่ใช้ GPU ระหว่างการบูต WSL2 Ollama อาจยึดหน่วยความจำของโฮสต์ไว้ขณะโหลดโมเดล การเรียกคืนหน่วยความจำของ Hyper-V อาจไม่สามารถเรียกคืนเพจที่ถูกยึดไว้เหล่านั้นได้เสมอ ทำให้ Windows อาจยุติ VM ของ WSL2 จากนั้น systemd จะเริ่ม Ollama อีกครั้ง และลูปก็เกิดซ้ำหลักฐานที่พบบ่อย:- WSL2 รีบูตหรือถูกยุติซ้ำจากฝั่ง Windows
- CPU สูงใน
app.sliceหรือollama.serviceไม่นานหลังจาก WSL2 เริ่มต้น - SIGTERM จาก systemd แทนที่จะเป็นเหตุการณ์ Linux OOM-killer
ollama.service ที่เปิดใช้งานพร้อม Restart=always และตัวบ่งชี้ CUDA ที่มองเห็นได้การบรรเทาปัญหา:%USERPROFILE%\.wslconfig บนฝั่ง Windows แล้วรัน wsl --shutdown:ตรวจไม่พบ Ollama
ตรวจไม่พบ Ollama
OLLAMA_API_KEY (หรือโปรไฟล์การยืนยันตัวตน) แล้ว และคุณ ไม่ได้ กำหนดรายการ models.providers.ollama ไว้อย่างชัดเจน:ไม่มีโมเดลพร้อมใช้งาน
ไม่มีโมเดลพร้อมใช้งาน
models.providers.ollamaการเชื่อมต่อถูกปฏิเสธ
การเชื่อมต่อถูกปฏิเสธ
โฮสต์ระยะไกลใช้ curl ได้ แต่ใช้ OpenClaw ไม่ได้
โฮสต์ระยะไกลใช้ curl ได้ แต่ใช้ OpenClaw ไม่ได้
baseUrlชี้ไปที่localhostแต่ Gateway รันใน Docker หรือบนโฮสต์อื่น- URL ใช้
/v1ซึ่งเลือกพฤติกรรมที่เข้ากันได้กับ OpenAI แทน Ollama แบบเนทีฟ - โฮสต์ระยะไกลต้องเปลี่ยนการตั้งค่าไฟร์วอลล์หรือการผูก LAN ทางฝั่ง Ollama
- โมเดลมีอยู่บนเดมอนของแล็ปท็อปคุณ แต่ไม่มีอยู่บนเดมอนระยะไกล
โมเดลส่งออก JSON ของเครื่องมือเป็นข้อความ
โมเดลส่งออก JSON ของเครื่องมือเป็นข้อความ
compat.supportsTools: false ในรายการโมเดลนั้นแล้วทดสอบใหม่Kimi หรือ GLM ส่งคืนสัญลักษณ์ผิดเพี้ยน
Kimi หรือ GLM ส่งคืนสัญลักษณ์ผิดเพี้ยน
Cloud + Local หรือ Cloud only จากนั้นลองเซสชันใหม่และโมเดลสำรอง:โมเดลโลคัลแบบเย็นหมดเวลา
โมเดลโลคัลแบบเย็นหมดเวลา
timeoutSeconds จะขยาย timeout การเชื่อมต่อ Undici ที่มีการป้องกันสำหรับผู้ให้บริการนี้ด้วยโมเดลบริบทขนาดใหญ่ช้าเกินไปหรือหน่วยความจำไม่พอ
โมเดลบริบทขนาดใหญ่ช้าเกินไปหรือหน่วยความจำไม่พอ
params.num_ctx จำกัดทั้งงบประมาณของ OpenClaw และบริบทคำขอของ Ollama เมื่อต้องการ latency ของโทเค็นแรกที่คาดการณ์ได้:contextWindow ก่อนหาก OpenClaw กำลังส่งพรอมป์มากเกินไป ลด params.num_ctx หาก Ollama กำลังโหลดบริบทรันไทม์ที่ใหญ่เกินไปสำหรับเครื่อง ลด maxTokens หากการสร้างข้อความใช้เวลานานเกินไป