คีย์การกำหนดค่าDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
tools.* และการตั้งค่าผู้ให้บริการแบบกำหนดเอง / base-URL สำหรับ agent, channel และคีย์การกำหนดค่าระดับบนสุดอื่น ๆ ดู ข้อมูลอ้างอิงการกำหนดค่า
เครื่องมือ
โปรไฟล์เครื่องมือ
tools.profile กำหนดรายการที่อนุญาตพื้นฐานก่อน tools.allow/tools.deny:
ค่าเริ่มต้นของการเริ่มต้นใช้งานภายในเครื่องจะตั้งค่าการกำหนดค่าภายในเครื่องใหม่เป็น
tools.profile: "coding" เมื่อไม่ได้ตั้งค่าไว้ (โปรไฟล์ที่ระบุไว้ชัดเจนเดิมจะถูกคงไว้)| โปรไฟล์ | รวม |
|---|---|
minimal | เฉพาะ session_status |
coding | group:fs, group:runtime, group:web, group:sessions, group:memory, cron, image, image_generate, video_generate |
messaging | group:messaging, sessions_list, sessions_history, sessions_send, session_status |
full | ไม่มีข้อจำกัด (เหมือนกับไม่ได้ตั้งค่า) |
กลุ่มเครื่องมือ
| กลุ่ม | เครื่องมือ |
|---|---|
group:runtime | exec, process, code_execution (bash ยอมรับเป็นนามแฝงของ exec) |
group:fs | read, write, edit, apply_patch |
group:sessions | sessions_list, sessions_history, sessions_send, sessions_spawn, sessions_yield, subagents, session_status |
group:memory | memory_search, memory_get |
group:web | web_search, x_search, web_fetch |
group:ui | browser, canvas |
group:automation | heartbeat_respond, cron, gateway |
group:messaging | message |
group:nodes | nodes |
group:agents | agents_list, update_plan |
group:media | image, image_generate, music_generate, video_generate, tts |
group:openclaw | เครื่องมือในตัวทั้งหมด (ไม่รวม Plugin ของผู้ให้บริการ) |
tools.allow / tools.deny
นโยบายอนุญาต/ปฏิเสธเครื่องมือแบบส่วนกลาง (การปฏิเสธมีผลเหนือกว่า) ไม่แยกตัวพิมพ์เล็กใหญ่ รองรับไวลด์การ์ด * ใช้แม้เมื่อปิดแซนด์บ็อกซ์ Docker
write และ apply_patch เป็นรหัสเครื่องมือแยกกัน allow: ["write"] จะเปิดใช้ apply_patch สำหรับโมเดลที่เข้ากันได้ด้วย แต่ deny: ["write"] จะไม่ปฏิเสธ apply_patch หากต้องการบล็อกการแก้ไขไฟล์ทั้งหมด ให้ปฏิเสธ group:fs หรือระบุเครื่องมือที่แก้ไขแต่ละรายการอย่างชัดเจน:
tools.byProvider
จำกัดเครื่องมือเพิ่มเติมสำหรับผู้ให้บริการหรือโมเดลเฉพาะ ลำดับ: โปรไฟล์พื้นฐาน → โปรไฟล์ผู้ให้บริการ → allow/deny
tools.toolsBySender
จำกัดเครื่องมือสำหรับตัวตนผู้ร้องขอเฉพาะ นี่เป็นการป้องกันเชิงลึกเพิ่มเติมจากการควบคุมการเข้าถึง channel; ค่า sender ต้องมาจากอะแดปเตอร์ channel ไม่ใช่ข้อความใน message
channel:<channelId>:<senderId>, id:<senderId>, e164:<phone>, username:<handle>, name:<displayName> หรือ "*" รหัส channel เป็นรหัสมาตรฐานของ OpenClaw; นามแฝงเช่น teams จะถูกปรับให้เป็น msteams คีย์แบบเดิมที่ไม่มีคำนำหน้าจะยอมรับเป็น id: เท่านั้น ลำดับการจับคู่คือ channel+id, id, e164, username, name แล้วจึงเป็นไวลด์การ์ด
agents.list[].tools.toolsBySender ราย agent จะแทนที่การจับคู่ sender แบบส่วนกลางเมื่อจับคู่ได้ แม้จะมีนโยบายว่าง {}
tools.elevated
ควบคุมการเข้าถึง exec แบบยกระดับนอกแซนด์บ็อกซ์:
- การแทนที่ราย agent (
agents.list[].tools.elevated) ทำได้เพียงจำกัดเพิ่มเติมเท่านั้น /elevated on|off|ask|fullเก็บสถานะต่อ session; คำสั่งแบบแทรกในบรรทัดมีผลกับข้อความเดียวexecแบบยกระดับจะข้ามแซนด์บ็อกซ์และใช้เส้นทางออกที่กำหนดค่าไว้ (gatewayตามค่าเริ่มต้น หรือnodeเมื่อเป้าหมาย exec คือnode)
tools.exec
tools.loopDetection
การตรวจสอบความปลอดภัยของลูปเครื่องมือถูกปิดใช้งานตามค่าเริ่มต้น ตั้งค่า enabled: true เพื่อเปิดใช้งานการตรวจจับ สามารถกำหนดการตั้งค่าแบบโกลบอลได้ใน tools.loopDetection และแทนที่แบบรายเอเจนต์ได้ที่ agents.list[].tools.loopDetection
ประวัติการเรียกเครื่องมือสูงสุดที่เก็บไว้สำหรับการวิเคราะห์ลูป
ค่าเกณฑ์รูปแบบการทำซ้ำที่ไม่มีความคืบหน้าสำหรับคำเตือน
ค่าเกณฑ์การทำซ้ำที่สูงขึ้นสำหรับบล็อกลูปวิกฤต
ค่าเกณฑ์หยุดเด็ดขาดสำหรับการทำงานที่ไม่มีความคืบหน้าใดๆ
เตือนเมื่อมีการเรียกเครื่องมือเดิม/อาร์กิวเมนต์เดิมซ้ำ
เตือน/บล็อกเมื่อใช้เครื่องมือโพลที่รู้จัก (
process.poll, command_status ฯลฯ)เตือน/บล็อกเมื่อพบรูปแบบคู่สลับกันที่ไม่มีความคืบหน้า
tools.web
tools.media
กำหนดค่าการทำความเข้าใจสื่อขาเข้า (รูปภาพ/เสียง/วิดีโอ):
ฟิลด์รายการโมเดลสื่อ
ฟิลด์รายการโมเดลสื่อ
รายการผู้ให้บริการ (
type: "provider" หรือละไว้):provider: รหัสผู้ให้บริการ API (openai,anthropic,google/gemini,groqฯลฯ)model: การแทนที่รหัสโมเดลprofile/preferredProfile: การเลือกโปรไฟล์auth-profiles.json
type: "cli"):command: ไฟล์ปฏิบัติการที่จะรันargs: อาร์กิวเมนต์แบบเทมเพลต (รองรับ{{MediaPath}},{{Prompt}},{{MaxChars}}ฯลฯ;openclaw doctor --fixจะย้าย placeholder แบบเลิกใช้แล้ว{input}ไปเป็น{{MediaPath}})
capabilities: รายการเสริม (image,audio,video) ค่าเริ่มต้น:openai/anthropic/minimax→ รูปภาพ,google→ รูปภาพ+เสียง+วิดีโอ,groq→ เสียงprompt,maxChars,maxBytes,timeoutSeconds,language: การแทนที่ต่อรายการ- รายการ
tools.media.image.timeoutSecondsและรายการtimeoutSecondsของโมเดลรูปภาพที่ตรงกันจะมีผลเช่นกันเมื่อเอเจนต์เรียกเครื่องมือimageอย่างชัดเจน - เมื่อเกิดความล้มเหลว จะถอยไปใช้รายการถัดไป
auth-profiles.json → ตัวแปร env → models.providers.*.apiKeyฟิลด์การทำให้เสร็จแบบอะซิงโครนัส:asyncCompletion.directSend: แฟล็กความเข้ากันได้ที่เลิกใช้แล้ว งานสื่ออะซิงโครนัสที่เสร็จสมบูรณ์จะยังคงผ่านเซสชันผู้ร้องขอโดยมีเอเจนต์เป็นตัวกลาง เพื่อให้เอเจนต์ได้รับผลลัพธ์ ตัดสินใจว่าจะบอกผู้ใช้อย่างไร และใช้เครื่องมือข้อความเมื่อการส่งจากแหล่งที่มาต้องใช้
tools.agentToAgent
tools.sessions
ควบคุมว่าเซสชันใดสามารถเป็นเป้าหมายของเครื่องมือเซสชัน (sessions_list, sessions_history, sessions_send) ได้
ค่าเริ่มต้น: tree (เซสชันปัจจุบัน + เซสชันที่ถูกสร้างโดยเซสชันนี้ เช่น เอเจนต์ย่อย)
ขอบเขตการมองเห็น
ขอบเขตการมองเห็น
self: เฉพาะคีย์เซสชันปัจจุบันtree: เซสชันปัจจุบัน + เซสชันที่ถูกสร้างโดยเซสชันปัจจุบัน (เอเจนต์ย่อย)agent: เซสชันใดๆ ที่เป็นของรหัสเอเจนต์ปัจจุบัน (อาจรวมผู้ใช้อื่นหากคุณรันเซสชันต่อผู้ส่งภายใต้รหัสเอเจนต์เดียวกัน)all: เซสชันใดๆ การกำหนดเป้าหมายข้ามเอเจนต์ยังคงต้องใช้tools.agentToAgent- การบีบขอบเขตของแซนด์บ็อกซ์: เมื่อเซสชันปัจจุบันอยู่ในแซนด์บ็อกซ์และ
agents.defaults.sandbox.sessionToolsVisibility="spawned"การมองเห็นจะถูกบังคับเป็นtreeแม้ว่าtools.sessions.visibility="all"
tools.sessions_spawn
ควบคุมการรองรับไฟล์แนบแบบอินไลน์สำหรับ sessions_spawn
Attachment notes
Attachment notes
- รองรับไฟล์แนบเฉพาะสำหรับ
runtime: "subagent"เท่านั้น รันไทม์ ACP จะปฏิเสธไฟล์แนบเหล่านั้น - ไฟล์จะถูกสร้างเป็นไฟล์จริงในพื้นที่ทำงานลูกที่
.openclaw/attachments/<uuid>/พร้อมกับ.manifest.json - เนื้อหาไฟล์แนบจะถูกปกปิดจากการคงอยู่ของ transcript โดยอัตโนมัติ
- อินพุต Base64 จะถูกตรวจสอบด้วยการตรวจตัวอักษร/แพดดิ้งอย่างเข้มงวด และมีตัวป้องกันขนาดก่อนถอดรหัส
- สิทธิ์ไฟล์คือ
0700สำหรับไดเรกทอรี และ0600สำหรับไฟล์ - การล้างข้อมูลเป็นไปตามนโยบาย
cleanup:deleteจะลบไฟล์แนบเสมอ ส่วนkeepจะเก็บไว้เฉพาะเมื่อretainOnSessionKeep: true
tools.experimental
แฟล็กเครื่องมือในตัวแบบทดลอง ปิดเป็นค่าเริ่มต้น เว้นแต่จะตรงกับกฎเปิดอัตโนมัติของ strict-agentic GPT-5
planTool: เปิดใช้เครื่องมือupdate_planแบบมีโครงสร้างสำหรับติดตามงานหลายขั้นตอนที่ไม่ใช่งานง่าย- ค่าเริ่มต้น:
falseเว้นแต่agents.defaults.embeddedPi.executionContract(หรือการตั้งค่าทับเฉพาะเอเจนต์) ถูกตั้งเป็น"strict-agentic"สำหรับการรันตระกูล OpenAI หรือ OpenAI Codex GPT-5 ตั้งค่าเป็นtrueเพื่อบังคับเปิดเครื่องมือนอกขอบเขตนั้น หรือfalseเพื่อให้ปิดต่อไปแม้ในการรัน strict-agentic GPT-5 - เมื่อเปิดใช้ prompt ระบบจะเพิ่มแนวทางการใช้งานด้วย เพื่อให้โมเดลใช้เครื่องมือนี้เฉพาะกับงานที่มีสาระสำคัญ และคงไว้ไม่เกินหนึ่งขั้นตอนที่เป็น
in_progress
agents.defaults.subagents
model: โมเดลเริ่มต้นสำหรับ sub-agent ที่ถูกสร้าง หากละไว้ sub-agent จะสืบทอดโมเดลของผู้เรียกallowAgents: allowlist เริ่มต้นของ id เอเจนต์ปลายทางสำหรับsessions_spawnเมื่อเอเจนต์ผู้ร้องขอไม่ได้ตั้งค่าsubagents.allowAgentsของตัวเอง (["*"]= ใดก็ได้; ค่าเริ่มต้น: เฉพาะเอเจนต์เดียวกัน)runTimeoutSeconds: timeout เริ่มต้น (วินาที) สำหรับsessions_spawnเมื่อการเรียกเครื่องมือละเว้นrunTimeoutSecondsค่า0หมายถึงไม่มี timeoutannounceTimeoutMs: timeout ต่อการเรียก (มิลลิวินาที) สำหรับความพยายามส่งประกาศagentของ Gateway ค่าเริ่มต้น:120000การลองใหม่ชั่วคราวอาจทำให้เวลารอประกาศรวมยาวกว่า timeout ที่กำหนดหนึ่งครั้ง- นโยบายเครื่องมือต่อ subagent:
tools.subagents.tools.allow/tools.subagents.tools.deny
Provider แบบกำหนดเองและ URL ฐาน
OpenClaw ใช้แค็ตตาล็อกโมเดลในตัว เพิ่ม Provider แบบกำหนดเองผ่านmodels.providers ใน config หรือ ~/.openclaw/agents/<agentId>/agent/models.json
Auth and merge precedence
Auth and merge precedence
- ใช้
authHeader: true+headersสำหรับความต้องการ auth แบบกำหนดเอง - ตั้งค่าทับ root ของ config เอเจนต์ด้วย
OPENCLAW_AGENT_DIR(หรือPI_CODING_AGENT_DIRซึ่งเป็น alias ของตัวแปรสภาพแวดล้อมแบบเดิม) - ลำดับความสำคัญของการ merge สำหรับ Provider ID ที่ตรงกัน:
- ค่า
baseUrlในmodels.jsonของเอเจนต์ที่ไม่ว่างจะชนะ - ค่า
apiKeyของเอเจนต์ที่ไม่ว่างจะชนะเฉพาะเมื่อ Provider นั้นไม่ได้ถูกจัดการโดย SecretRef ในบริบท config/auth-profile ปัจจุบัน - ค่า
apiKeyของ Provider ที่ถูกจัดการโดย SecretRef จะถูกรีเฟรชจากเครื่องหมายแหล่งที่มา (ENV_VAR_NAMEสำหรับ env refs,secretref-managedสำหรับ file/exec refs) แทนการคงค่า secret ที่ resolve แล้ว - ค่า header ของ Provider ที่ถูกจัดการโดย SecretRef จะถูกรีเฟรชจากเครื่องหมายแหล่งที่มา (
secretref-env:ENV_VAR_NAMEสำหรับ env refs,secretref-managedสำหรับ file/exec refs) apiKey/baseUrlของเอเจนต์ที่ว่างหรือหายไปจะ fallback ไปที่models.providersใน configcontextWindow/maxTokensของโมเดลที่ตรงกันใช้ค่าที่สูงกว่าระหว่าง config ที่ระบุชัดเจนกับค่า implicit จากแค็ตตาล็อกcontextTokensของโมเดลที่ตรงกันจะรักษาเพดานรันไทม์ที่ระบุชัดเจนเมื่อมีอยู่ ใช้ค่านี้เพื่อจำกัด context ที่มีผลโดยไม่เปลี่ยน metadata ดั้งเดิมของโมเดล- ใช้
models.mode: "replace"เมื่อคุณต้องการให้ config เขียนmodels.jsonใหม่ทั้งหมด - การคงอยู่ของ marker ยึดแหล่งที่มาเป็นหลัก: marker ถูกเขียนจาก snapshot ของ config แหล่งที่มาที่ใช้งานอยู่ (ก่อนการ resolve) ไม่ใช่จากค่า secret รันไทม์ที่ resolve แล้ว
- ค่า
รายละเอียดฟิลด์ Provider
Top-level catalog
Top-level catalog
models.mode: พฤติกรรมแค็ตตาล็อก Provider (mergeหรือreplace)models.providers: map Provider แบบกำหนดเองที่ใช้ provider id เป็นคีย์- การแก้ไขที่ปลอดภัย: ใช้
openclaw config set models.providers.<id> '<json>' --strict-json --mergeหรือopenclaw config set models.providers.<id>.models '<json-array>' --strict-json --mergeสำหรับการอัปเดตแบบเพิ่มเติมconfig setจะปฏิเสธการแทนที่แบบทำลายข้อมูล เว้นแต่คุณส่ง--replace
- การแก้ไขที่ปลอดภัย: ใช้
Provider connection and auth
Provider connection and auth
models.providers.*.api: adapter คำขอ (openai-completions,openai-responses,anthropic-messages,google-generative-aiฯลฯ) สำหรับ backend/v1/chat/completionsที่โฮสต์เอง เช่น MLX, vLLM, SGLang และเซิร์ฟเวอร์ local ที่เข้ากันได้กับ OpenAI ส่วนใหญ่ ให้ใช้openai-completionsProvider แบบกำหนดเองที่มีbaseUrlแต่ไม่มีapiจะใช้ค่าเริ่มต้นเป็นopenai-completions; ตั้งค่าopenai-responsesเฉพาะเมื่อ backend รองรับ/v1/responsesmodels.providers.*.apiKey: credential ของ Provider (แนะนำให้ใช้ SecretRef/env substitution)models.providers.*.auth: กลยุทธ์ auth (api-key,token,oauth,aws-sdk)models.providers.*.contextWindow: context window ดั้งเดิมเริ่มต้นสำหรับโมเดลภายใต้ Provider นี้เมื่อรายการโมเดลไม่ได้ตั้งค่าcontextWindowmodels.providers.*.contextTokens: เพดาน context รันไทม์ที่มีผลเริ่มต้นสำหรับโมเดลภายใต้ Provider นี้เมื่อรายการโมเดลไม่ได้ตั้งค่าcontextTokensmodels.providers.*.maxTokens: เพดาน output-token เริ่มต้นสำหรับโมเดลภายใต้ Provider นี้เมื่อรายการโมเดลไม่ได้ตั้งค่าmaxTokensmodels.providers.*.timeoutSeconds: timeout คำขอ HTTP ของโมเดลต่อ Provider แบบไม่บังคับ หน่วยเป็นวินาที รวมถึง connect, headers, body และการจัดการ abort ของคำขอทั้งหมดmodels.providers.*.injectNumCtxForOpenAICompat: สำหรับ Ollama +openai-completionsให้ injectoptions.num_ctxเข้าไปในคำขอ (ค่าเริ่มต้น:true)models.providers.*.authHeader: บังคับส่ง credential ใน headerAuthorizationเมื่อจำเป็นmodels.providers.*.baseUrl: URL ฐานของ API upstreammodels.providers.*.headers: header คงที่เพิ่มเติมสำหรับการกำหนดเส้นทาง proxy/tenant
Request transport overrides
Request transport overrides
models.providers.*.request: การตั้งค่าทับ transport สำหรับคำขอ HTTP ไปยัง model-providerrequest.headers: header เพิ่มเติม (merge กับค่าเริ่มต้นของ Provider) ค่ายอมรับ SecretRefrequest.auth: การตั้งค่าทับกลยุทธ์ auth โหมด:"provider-default"(ใช้ auth ในตัวของ Provider),"authorization-bearer"(พร้อมtoken),"header"(พร้อมheaderName,value,prefixแบบไม่บังคับ)request.proxy: การตั้งค่าทับ HTTP proxy โหมด:"env-proxy"(ใช้ตัวแปร envHTTP_PROXY/HTTPS_PROXY),"explicit-proxy"(พร้อมurl) ทั้งสองโหมดยอมรับ sub-objecttlsแบบไม่บังคับrequest.tls: การตั้งค่าทับ TLS สำหรับการเชื่อมต่อโดยตรง ฟิลด์:ca,cert,key,passphrase(ทั้งหมดรับ SecretRef),serverName,insecureSkipVerifyrequest.allowPrivateNetwork: เมื่อเป็นtrueอนุญาต HTTPS ไปยังbaseUrlเมื่อ DNS resolve เป็น private, CGNAT หรือช่วงที่คล้ายกัน ผ่าน provider HTTP fetch guard (ผู้ปฏิบัติการต้อง opt-in สำหรับ endpoint ที่โฮสต์เองและเข้ากันได้กับ OpenAI ที่เชื่อถือได้) URL stream ของ model-provider แบบ loopback เช่นlocalhost,127.0.0.1และ[::1]ได้รับอนุญาตโดยอัตโนมัติ เว้นแต่ค่านี้ถูกตั้งเป็นfalseอย่างชัดเจน; โฮสต์ LAN, tailnet และ private DNS ยังคงต้อง opt-in WebSocket ใช้requestเดียวกันสำหรับ headers/TLS แต่ไม่ใช้ fetch SSRF gate นั้น ค่าเริ่มต้นfalse
Model catalog entries
Model catalog entries
models.providers.*.models: รายการแค็ตตาล็อกโมเดลของ Provider ที่ระบุชัดเจนmodels.providers.*.models.*.input: modality อินพุตของโมเดล ใช้["text"]สำหรับโมเดล text-only และ["text", "image"]สำหรับโมเดล image/vision แบบ native ไฟล์แนบภาพจะถูก inject เข้าไปใน turn ของเอเจนต์เฉพาะเมื่อโมเดลที่เลือกถูกทำเครื่องหมายว่ารองรับภาพmodels.providers.*.models.*.contextWindow: metadata ของ context window ดั้งเดิมของโมเดล ค่านี้ตั้งทับcontextWindowระดับ Provider สำหรับโมเดลนั้นmodels.providers.*.models.*.contextTokens: เพดาน context รันไทม์แบบไม่บังคับ ค่านี้ตั้งทับcontextTokensระดับ Provider; ใช้เมื่อคุณต้องการงบประมาณ context ที่มีผลเล็กกว่าcontextWindowดั้งเดิมของโมเดล;openclaw models listแสดงทั้งสองค่าเมื่อแตกต่างกันmodels.providers.*.models.*.compat.supportsDeveloperRole: คำใบ้ความเข้ากันได้แบบไม่บังคับ สำหรับapi: "openai-completions"ที่มีbaseUrlแบบ non-native ที่ไม่ว่าง (host ไม่ใช่api.openai.com) OpenClaw จะบังคับค่านี้เป็นfalseในรันไทม์baseUrlที่ว่าง/ละไว้จะคงพฤติกรรม OpenAI เริ่มต้นmodels.providers.*.models.*.compat.requiresStringContent: คำใบ้ความเข้ากันได้แบบไม่บังคับสำหรับ endpoint แชตที่เข้ากันได้กับ OpenAI แต่รองรับเฉพาะสตริง เมื่อเป็นtrueOpenClaw จะแบน arraymessages[].contentที่เป็นข้อความล้วนให้เป็นสตริงธรรมดาก่อนส่งคำขอmodels.providers.*.models.*.compat.strictMessageKeys: คำใบ้ความเข้ากันได้แบบไม่บังคับสำหรับ endpoint แชตที่เข้ากันได้กับ OpenAI แบบเข้มงวด เมื่อเป็นtrueOpenClaw จะตัด object ข้อความ Chat Completions ขาออกให้เหลือroleและcontentก่อนส่งคำขอmodels.providers.*.models.*.compat.thinkingFormat: คำใบ้ payload การคิดแบบไม่บังคับ ใช้"qwen"สำหรับenable_thinkingระดับบนสุด หรือ"qwen-chat-template"สำหรับchat_template_kwargs.enable_thinkingบนเซิร์ฟเวอร์ตระกูล Qwen ที่เข้ากันได้กับ OpenAI และรองรับ chat-template kwargs ระดับคำขอ เช่น vLLM
Amazon Bedrock discovery
Amazon Bedrock discovery
plugins.entries.amazon-bedrock.config.discovery: root ของการตั้งค่า auto-discovery ของ Bedrockplugins.entries.amazon-bedrock.config.discovery.enabled: เปิด/ปิด implicit discoveryplugins.entries.amazon-bedrock.config.discovery.region: ภูมิภาค AWS สำหรับ discoveryplugins.entries.amazon-bedrock.config.discovery.providerFilter: ตัวกรอง provider-id แบบไม่บังคับสำหรับ discovery แบบเจาะจงplugins.entries.amazon-bedrock.config.discovery.refreshInterval: ช่วงเวลาการ polling สำหรับการรีเฟรช discoveryplugins.entries.amazon-bedrock.config.discovery.defaultContextWindow: context window fallback สำหรับโมเดลที่ค้นพบplugins.entries.amazon-bedrock.config.discovery.defaultMaxTokens: โทเคนเอาต์พุตสูงสุด fallback สำหรับโมเดลที่ค้นพบ
--custom-image-input เพื่อบังคับใช้เมตาดาต้าที่รองรับรูปภาพ หรือ --custom-text-input เพื่อบังคับใช้เมตาดาต้าแบบข้อความเท่านั้น
ตัวอย่างผู้ให้บริการ
Cerebras (GLM 4.7 / GPT OSS)
Cerebras (GLM 4.7 / GPT OSS)
Plugin ผู้ให้บริการ ใช้
cerebras ที่รวมมาให้สามารถกำหนดค่านี้ผ่าน openclaw onboard --auth-choice cerebras-api-key ได้ ใช้การกำหนดค่าผู้ให้บริการแบบชัดเจนเฉพาะเมื่อจะแทนที่ค่าเริ่มต้นเท่านั้นcerebras/zai-glm-4.7 สำหรับ Cerebras และ zai/glm-4.7 สำหรับ Z.AI โดยตรงKimi Coding
Kimi Coding
openclaw onboard --auth-choice kimi-code-api-keyLocal models (LM Studio)
Local models (LM Studio)
ดู โมเดลภายในเครื่อง สรุปสั้น ๆ: เรียกใช้โมเดลภายในเครื่องขนาดใหญ่ผ่าน LM Studio Responses API บนฮาร์ดแวร์จริงจัง และคงโมเดลที่โฮสต์ไว้ให้ผสานอยู่เพื่อใช้เป็นตัวสำรอง
MiniMax M2.7 (direct)
MiniMax M2.7 (direct)
MINIMAX_API_KEY ทางลัด: openclaw onboard --auth-choice minimax-global-api หรือ openclaw onboard --auth-choice minimax-cn-api แค็ตตาล็อกโมเดลมีค่าเริ่มต้นเป็น M2.7 เท่านั้น บนเส้นทางสตรีมมิงที่เข้ากันได้กับ Anthropic นั้น OpenClaw จะปิดการคิดของ MiniMax ตามค่าเริ่มต้น เว้นแต่คุณจะตั้งค่า thinking เองอย่างชัดเจน /fast on หรือ params.fastMode: true จะเขียน MiniMax-M2.7 ใหม่เป็น MiniMax-M2.7-highspeedMoonshot AI (Kimi)
Moonshot AI (Kimi)
baseUrl: "https://api.moonshot.cn/v1" หรือ openclaw onboard --auth-choice moonshot-api-key-cnปลายทาง Moonshot แบบเนทีฟประกาศความเข้ากันได้ของการใช้งานสตรีมมิงบนทรานสปอร์ต openai-completions ที่ใช้ร่วมกัน และ OpenClaw จะอิงสิ่งนั้นจากความสามารถของปลายทาง แทนที่จะอิงเพียง ID ผู้ให้บริการในตัวOpenCode
OpenCode
OPENCODE_API_KEY (หรือ OPENCODE_ZEN_API_KEY) ใช้การอ้างอิง opencode/... สำหรับแค็ตตาล็อก Zen หรือการอ้างอิง opencode-go/... สำหรับแค็ตตาล็อก Go ทางลัด: openclaw onboard --auth-choice opencode-zen หรือ openclaw onboard --auth-choice opencode-goSynthetic (Anthropic-compatible)
Synthetic (Anthropic-compatible)
/v1 ไว้ (ไคลเอนต์ Anthropic จะเติมเอง) ทางลัด: openclaw onboard --auth-choice synthetic-api-keyZ.AI (GLM-4.7)
Z.AI (GLM-4.7)
ZAI_API_KEY ยอมรับ z.ai/* และ z-ai/* เป็นนามแฝง ทางลัด: openclaw onboard --auth-choice zai-api-key- ปลายทางทั่วไป:
https://api.z.ai/api/paas/v4 - ปลายทางสำหรับเขียนโค้ด (ค่าเริ่มต้น):
https://api.z.ai/api/coding/paas/v4 - สำหรับปลายทางทั่วไป ให้กำหนดผู้ให้บริการแบบกำหนดเองพร้อมการแทนที่ URL ฐาน
ที่เกี่ยวข้อง
- การกำหนดค่า — agents
- การกำหนดค่า — channels
- ข้อมูลอ้างอิงการกำหนดค่า — คีย์ระดับบนสุดอื่น ๆ
- เครื่องมือและ Plugin