Tài liệu tham khảo cho nhà cung cấp LLM/mô hình (không phải các kênh trò chuyện như WhatsApp/Telegram). Để biết quy tắc chọn mô hình, xem Mô hình.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
Quy tắc nhanh
Tham chiếu mô hình và trình trợ giúp CLI
Tham chiếu mô hình và trình trợ giúp CLI
- Tham chiếu mô hình dùng
provider/model(ví dụ:opencode/claude-opus-4-6). agents.defaults.modelsđóng vai trò là danh sách cho phép khi được đặt.- Trình trợ giúp CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensđặt mặc định cấp nhà cung cấp;models.providers.*.models[].contextWindow/contextTokens/maxTokensghi đè chúng theo từng mô hình.- Quy tắc dự phòng, kiểm tra thời gian hồi và duy trì ghi đè phiên: Chuyển đổi dự phòng mô hình.
Phân tách nhà cung cấp/thời gian chạy OpenAI
Phân tách nhà cung cấp/thời gian chạy OpenAI
Các tuyến thuộc họ OpenAI phụ thuộc vào tiền tố cụ thể:
openai/<model>dùng nhà cung cấp khóa API OpenAI trực tiếp trong PI.openai-codex/<model>dùng Codex OAuth trong PI.openai/<model>cộng vớiagents.defaults.agentRuntime.id: "codex"dùng bộ harness máy chủ ứng dụng Codex gốc.
openai-codex/<model> thuộc về Plugin OpenAI, trong khi Plugin Codex được bật bởi agentRuntime.id: "codex" hoặc các tham chiếu codex/<model> cũ.GPT-5.5 có sẵn qua openai/gpt-5.5 cho lưu lượng dùng khóa API trực tiếp, openai-codex/gpt-5.5 trong PI cho Codex OAuth, và bộ harness máy chủ ứng dụng Codex gốc khi agentRuntime.id: "codex" được đặt.Thời gian chạy CLI
Thời gian chạy CLI
Thời gian chạy CLI dùng cùng cách phân tách: chọn các tham chiếu mô hình chuẩn như
anthropic/claude-*, google/gemini-*, hoặc openai/gpt-*, rồi đặt agents.defaults.agentRuntime.id thành claude-cli, google-gemini-cli, hoặc codex-cli khi bạn muốn một backend CLI cục bộ.Các tham chiếu claude-cli/*, google-gemini-cli/*, và codex-cli/* cũ sẽ được di chuyển trở lại thành tham chiếu nhà cung cấp chuẩn, với thời gian chạy được ghi riêng.Hành vi nhà cung cấp do Plugin sở hữu
Hầu hết logic dành riêng cho từng nhà cung cấp nằm trong các Plugin nhà cung cấp (registerProvider(...)) trong khi OpenClaw giữ vòng lặp suy luận chung. Plugin sở hữu quá trình thiết lập ban đầu, danh mục mô hình, ánh xạ biến môi trường xác thực, chuẩn hóa vận chuyển/cấu hình, dọn dẹp schema công cụ, phân loại chuyển đổi dự phòng, làm mới OAuth, báo cáo mức sử dụng, hồ sơ suy nghĩ/lập luận, v.v.
Danh sách đầy đủ các hook SDK nhà cung cấp và ví dụ Plugin đi kèm nằm trong Plugin nhà cung cấp. Một nhà cung cấp cần bộ thực thi yêu cầu hoàn toàn tùy chỉnh là một bề mặt mở rộng riêng và sâu hơn.
Hành vi runner do nhà cung cấp sở hữu nằm trên các hook nhà cung cấp rõ ràng như chính sách phát lại, chuẩn hóa schema công cụ, bọc luồng và trình trợ giúp vận chuyển/yêu cầu. Túi tĩnh
ProviderPlugin.capabilities cũ chỉ để tương thích và không còn được logic runner dùng chung đọc.Xoay vòng khóa API
Nguồn khóa và mức ưu tiên
Nguồn khóa và mức ưu tiên
Cấu hình nhiều khóa qua:
OPENCLAW_LIVE_<PROVIDER>_KEY(ghi đè trực tiếp đơn lẻ, ưu tiên cao nhất)<PROVIDER>_API_KEYS(danh sách phân tách bằng dấu phẩy hoặc dấu chấm phẩy)<PROVIDER>_API_KEY(khóa chính)<PROVIDER>_API_KEY_*(danh sách đánh số, ví dụ<PROVIDER>_API_KEY_1)
GOOGLE_API_KEY cũng được bao gồm làm dự phòng. Thứ tự chọn khóa giữ nguyên mức ưu tiên và loại bỏ giá trị trùng lặp.Khi nào xoay vòng được kích hoạt
Khi nào xoay vòng được kích hoạt
- Yêu cầu chỉ được thử lại với khóa tiếp theo khi có phản hồi giới hạn tốc độ (ví dụ
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded, hoặc thông báo giới hạn mức sử dụng định kỳ). - Lỗi không phải giới hạn tốc độ sẽ thất bại ngay lập tức; không thử xoay vòng khóa.
- Khi tất cả khóa ứng viên đều thất bại, lỗi cuối cùng được trả về từ lần thử cuối.
Nhà cung cấp tích hợp sẵn (danh mục pi-ai)
OpenClaw đi kèm danh mục pi‑ai. Các nhà cung cấp này không yêu cầu cấu hìnhmodels.providers; chỉ cần đặt xác thực và chọn một mô hình.
OpenAI
- Nhà cung cấp:
openai - Xác thực:
OPENAI_API_KEY - Xoay vòng tùy chọn:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, cộng vớiOPENCLAW_LIVE_OPENAI_KEY(ghi đè đơn) - Mô hình ví dụ:
openai/gpt-5.5,openai/gpt-5.4-mini - Xác minh tài khoản/tính khả dụng của mô hình bằng
openclaw models list --provider openainếu một bản cài đặt hoặc khóa API cụ thể hoạt động khác đi. - CLI:
openclaw onboard --auth-choice openai-api-key - Transport mặc định là
auto(ưu tiên WebSocket, dự phòng SSE) - Ghi đè theo từng mô hình qua
agents.defaults.models["openai/<model>"].params.transport("sse","websocket", hoặc"auto") - Khởi động sẵn OpenAI Responses WebSocket mặc định được bật qua
params.openaiWsWarmup(true/false) - Có thể bật xử lý ưu tiên của OpenAI qua
agents.defaults.models["openai/<model>"].params.serviceTier /fastvàparams.fastModeánh xạ các yêu cầu Responses trực tiếpopenai/*sangservice_tier=prioritytrênapi.openai.com- Dùng
params.serviceTierkhi bạn muốn một tầng rõ ràng thay vì công tắc/fastdùng chung - Các header quy thuộc OpenClaw ẩn (
originator,version,User-Agent) chỉ áp dụng trên lưu lượng OpenAI gốc tớiapi.openai.com, không áp dụng cho proxy tương thích OpenAI chung - Các tuyến OpenAI gốc cũng giữ Responses
store, gợi ý prompt-cache, và định dạng payload tương thích reasoning của OpenAI; các tuyến proxy thì không openai/gpt-5.3-codex-sparkđược cố ý ẩn trong OpenClaw vì các yêu cầu OpenAI API trực tiếp từ chối nó và catalog Codex hiện tại không hiển thị nó
Anthropic
- Nhà cung cấp:
anthropic - Xác thực:
ANTHROPIC_API_KEY - Xoay vòng tùy chọn:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, cộng vớiOPENCLAW_LIVE_ANTHROPIC_KEY(ghi đè đơn) - Mô hình ví dụ:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Các yêu cầu Anthropic công khai trực tiếp hỗ trợ công tắc
/fastdùng chung vàparams.fastMode, bao gồm lưu lượng dùng khóa API và OAuth gửi tớiapi.anthropic.com; OpenClaw ánh xạ phần đó sangservice_tiercủa Anthropic (autoso vớistandard_only) - Cấu hình Claude CLI ưu tiên giữ tham chiếu mô hình ở dạng chuẩn và chọn backend CLI riêng:
anthropic/claude-opus-4-7vớiagents.defaults.agentRuntime.id: "claude-cli". Các tham chiếu cũclaude-cli/claude-opus-4-7vẫn hoạt động để tương thích.
Nhân viên Anthropic đã cho chúng tôi biết việc sử dụng Claude CLI kiểu OpenClaw lại được cho phép, nên OpenClaw xem việc tái sử dụng Claude CLI và dùng
claude -p là được chấp thuận cho tích hợp này, trừ khi Anthropic công bố chính sách mới. Anthropic setup-token vẫn có sẵn dưới dạng đường dẫn token OpenClaw được hỗ trợ, nhưng OpenClaw hiện ưu tiên tái sử dụng Claude CLI và claude -p khi có sẵn.OpenAI Codex OAuth
- Nhà cung cấp:
openai-codex - Xác thực: OAuth (ChatGPT)
- Tham chiếu mô hình PI:
openai-codex/gpt-5.5 - Tham chiếu harness app-server Codex gốc:
openai/gpt-5.5vớiagents.defaults.agentRuntime.id: "codex" - Tài liệu harness app-server Codex gốc: Harness Codex
- Tham chiếu mô hình cũ:
codex/gpt-* - Ranh giới Plugin:
openai-codex/*tải Plugin OpenAI; Plugin app-server Codex gốc chỉ được chọn bởi runtime harness Codex hoặc các tham chiếu cũcodex/*. - CLI:
openclaw onboard --auth-choice openai-codexhoặcopenclaw models auth login --provider openai-codex - Transport mặc định là
auto(ưu tiên WebSocket, dự phòng SSE) - Ghi đè theo từng mô hình PI qua
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", hoặc"auto") params.serviceTiercũng được chuyển tiếp trên các yêu cầu Codex Responses gốc (chatgpt.com/backend-api)- Các header quy thuộc OpenClaw ẩn (
originator,version,User-Agent) chỉ được đính kèm trên lưu lượng Codex gốc tớichatgpt.com/backend-api, không áp dụng cho proxy tương thích OpenAI chung - Chia sẻ cùng cấu hình công tắc
/fastvàparams.fastModenhưopenai/*trực tiếp; OpenClaw ánh xạ phần đó sangservice_tier=priority openai-codex/gpt-5.5dùngcontextWindow = 400000gốc từ catalog Codex và runtime mặc địnhcontextTokens = 272000; ghi đè giới hạn runtime bằngmodels.providers.openai-codex.models[].contextTokens- Ghi chú chính sách: OpenAI Codex OAuth được hỗ trợ rõ ràng cho các công cụ/quy trình làm việc bên ngoài như OpenClaw.
- Dùng
openai-codex/gpt-5.5khi bạn muốn tuyến Codex OAuth/gói đăng ký; dùngopenai/gpt-5.5khi thiết lập khóa API và catalog cục bộ của bạn hiển thị tuyến API công khai.
Các tùy chọn hosted kiểu gói đăng ký khác
GLM models
Z.AI Coding Plan hoặc các endpoint API chung.
MiniMax
OAuth MiniMax Coding Plan hoặc quyền truy cập bằng khóa API.
Qwen Cloud
Bề mặt nhà cung cấp Qwen Cloud cộng với ánh xạ endpoint Alibaba DashScope và Coding Plan.
OpenCode
- Xác thực:
OPENCODE_API_KEY(hoặcOPENCODE_ZEN_API_KEY) - Nhà cung cấp runtime Zen:
opencode - Nhà cung cấp runtime Go:
opencode-go - Mô hình ví dụ:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenhoặcopenclaw onboard --auth-choice opencode-go
Google Gemini (khóa API)
- Nhà cung cấp:
google - Xác thực:
GEMINI_API_KEY - Xoay vòng tùy chọn:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, dự phòngGOOGLE_API_KEY, vàOPENCLAW_LIVE_GEMINI_KEY(ghi đè đơn) - Mô hình ví dụ:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Tương thích: cấu hình OpenClaw cũ dùng
google/gemini-3.1-flash-previewđược chuẩn hóa thànhgoogle/gemini-3-flash-preview - Bí danh:
google/gemini-3.1-prođược chấp nhận và chuẩn hóa thành id Gemini API trực tiếp của Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Thinking:
/think adaptivedùng thinking động của Google. Gemini 3/3.1 bỏ quathinkingLevelcố định; Gemini 2.5 gửithinkingBudget: -1. - Các lượt chạy Gemini trực tiếp cũng chấp nhận
agents.defaults.models["google/<model>"].params.cachedContent(hoặccached_contentcũ) để chuyển tiếp handlecachedContents/...gốc của nhà cung cấp; các lần trúng cache Gemini hiển thị dưới dạng OpenClawcacheRead
Google Vertex và Gemini CLI
- Nhà cung cấp:
google-vertex,google-gemini-cli - Xác thực: Vertex dùng gcloud ADC; Gemini CLI dùng luồng OAuth của nó
google đi kèm.
Login
google-gemini-cli/gemini-3-flash-preview. Bạn không dán client id hoặc secret vào openclaw.json. Luồng đăng nhập CLI lưu token trong auth profile trên máy chủ Gateway.response; usage dự phòng về stats, với stats.cached được chuẩn hóa thành cacheRead của OpenClaw.
Z.AI (GLM)
- Nhà cung cấp:
zai - Xác thực:
ZAI_API_KEY - Mô hình ví dụ:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Bí danh:
z.ai/*vàz-ai/*chuẩn hóa thànhzai/* zai-api-keytự động phát hiện endpoint Z.AI phù hợp;zai-coding-global,zai-coding-cn,zai-global, vàzai-cnbuộc dùng một surface cụ thể
- Bí danh:
Vercel AI Gateway
- Nhà cung cấp:
vercel-ai-gateway - Xác thực:
AI_GATEWAY_API_KEY - Mô hình ví dụ:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Nhà cung cấp:
kilocode - Xác thực:
KILOCODE_API_KEY - Mô hình ví dụ:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL cơ sở:
https://api.kilo.ai/api/gateway/ - Danh mục dự phòng tĩnh kèm theo
kilocode/kilo/auto; cơ chế khám phá livehttps://api.kilo.ai/api/gateway/modelscó thể mở rộng thêm danh mục runtime. - Định tuyến upstream chính xác phía sau
kilocode/kilo/autothuộc sở hữu của Kilo Gateway, không được hard-code trong OpenClaw.
Các Plugin nhà cung cấp được đóng gói kèm khác
| Nhà cung cấp | Id | Env xác thực | Mô hình ví dụ |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan | BYTEPLUS_API_KEY | byteplus-plan/ark-code-latest |
| Cerebras | cerebras | CEREBRAS_API_KEY | cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway | CLOUDFLARE_AI_GATEWAY_API_KEY | — |
| DeepInfra | deepinfra | DEEPINFRA_API_KEY | deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek | DEEPSEEK_API_KEY | deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot | COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN | — |
| Groq | groq | GROQ_API_KEY | — |
| Hugging Face Inference | huggingface | HUGGINGFACE_HUB_TOKEN hoặc HF_TOKEN | huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode | KILOCODE_API_KEY | kilocode/kilo/auto |
| Kimi Coding | kimi | KIMI_API_KEY hoặc KIMICODE_API_KEY | kimi/kimi-code |
| MiniMax | minimax / minimax-portal | MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN | minimax/MiniMax-M2.7 |
| Mistral | mistral | MISTRAL_API_KEY | mistral/mistral-large-latest |
| Moonshot | moonshot | MOONSHOT_API_KEY | moonshot/kimi-k2.6 |
| NVIDIA | nvidia | NVIDIA_API_KEY | nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter | OPENROUTER_API_KEY | openrouter/auto |
| Qianfan | qianfan | QIANFAN_API_KEY | qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen | QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY | qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan | STEPFUN_API_KEY | stepfun/step-3.5-flash |
| Together | together | TOGETHER_API_KEY | together/moonshotai/Kimi-K2.5 |
| Venice | venice | VENICE_API_KEY | — |
| Vercel AI Gateway | vercel-ai-gateway | AI_GATEWAY_API_KEY | vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan | VOLCANO_ENGINE_API_KEY | volcengine-plan/ark-code-latest |
| xAI | xai | XAI_API_KEY | xai/grok-4 |
| Xiaomi | xiaomi | XIAOMI_API_KEY | xiaomi/mimo-v2-flash |
Những điểm đặc thù cần biết
OpenRouter
OpenRouter
Chỉ áp dụng header ghi nhận ứng dụng và marker Anthropic
cache_control trên các route openrouter.ai đã xác minh. Các ref DeepSeek, Moonshot và ZAI đủ điều kiện cache-TTL cho prompt caching do OpenRouter quản lý nhưng không nhận marker cache Anthropic. Là một đường dẫn tương thích OpenAI kiểu proxy, nó bỏ qua shaping chỉ dành cho OpenAI gốc (serviceTier, Responses store, gợi ý prompt-cache, tương thích reasoning OpenAI). Các ref dựa trên Gemini chỉ giữ phần vệ sinh thought-signature proxy-Gemini.Kilo Gateway
Kilo Gateway
Các ref dựa trên Gemini đi theo cùng đường dẫn vệ sinh proxy-Gemini;
kilocode/kilo/auto và các ref khác không hỗ trợ proxy-reasoning sẽ bỏ qua việc chèn proxy reasoning.MiniMax
MiniMax
Onboarding bằng API-key ghi các định nghĩa mô hình chat M2.7 chỉ văn bản rõ ràng; khả năng hiểu hình ảnh vẫn nằm trên media provider
MiniMax-VL-01 do Plugin sở hữu.NVIDIA
NVIDIA
Model id dùng namespace
nvidia/<vendor>/<model> (ví dụ nvidia/nvidia/nemotron-... cùng với nvidia/moonshotai/kimi-k2.5); picker giữ nguyên thành phần chữ của <provider>/<model-id> trong khi khóa canonical gửi tới API vẫn chỉ có một tiền tố.xAI
xAI
Dùng đường dẫn xAI Responses.
/fast hoặc params.fastMode: true viết lại grok-3, grok-3-mini, grok-4, và grok-4-0709 thành các biến thể *-fast tương ứng. tool_stream bật theo mặc định; tắt qua agents.defaults.models["xai/<model>"].params.tool_stream=false.Cerebras
Cerebras
Được phân phối dưới dạng Plugin nhà cung cấp
cerebras đóng gói kèm. GLM dùng zai-glm-4.7; URL cơ sở tương thích OpenAI là https://api.cerebras.ai/v1.Nhà cung cấp qua models.providers (custom/base URL)
Dùng models.providers (hoặc models.json) để thêm nhà cung cấp tùy chỉnh hoặc proxy tương thích OpenAI/Anthropic.
Nhiều Plugin nhà cung cấp đóng gói kèm bên dưới đã phát hành danh mục mặc định. Chỉ dùng các mục models.providers.<id> rõ ràng khi bạn muốn ghi đè URL cơ sở mặc định, header hoặc danh sách mô hình.
Các kiểm tra năng lực mô hình của Gateway cũng đọc metadata models.providers.<id>.models[] rõ ràng. Nếu mô hình tùy chỉnh hoặc proxy chấp nhận hình ảnh, hãy đặt input: ["text", "image"] trên mô hình đó để WebChat và các đường dẫn tệp đính kèm xuất phát từ node truyền hình ảnh dưới dạng đầu vào mô hình gốc thay vì ref media chỉ văn bản.
Moonshot AI (Kimi)
Moonshot được phân phối dưới dạng Plugin nhà cung cấp đóng gói kèm. Mặc định hãy dùng nhà cung cấp tích hợp sẵn, và chỉ thêm mụcmodels.providers.moonshot rõ ràng khi bạn cần ghi đè URL cơ sở hoặc metadata mô hình:
- Nhà cung cấp:
moonshot - Xác thực:
MOONSHOT_API_KEY - Mô hình ví dụ:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyhoặcopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Lập trình với Kimi
Kimi Coding sử dụng điểm cuối tương thích với Anthropic của Moonshot AI:- Nhà cung cấp:
kimi - Xác thực:
KIMI_API_KEY - Mô hình ví dụ:
kimi/kimi-code
kimi/k2p5 cũ vẫn được chấp nhận làm id mô hình tương thích.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) cung cấp quyền truy cập vào Doubao và các mô hình khác tại Trung Quốc.- Nhà cung cấp:
volcengine(lập trình:volcengine-plan) - Xác thực:
VOLCANO_ENGINE_API_KEY - Mô hình ví dụ:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/* chung cũng được đăng ký cùng lúc.
Trong các bộ chọn mô hình onboarding/configure, lựa chọn xác thực Volcengine ưu tiên cả các hàng volcengine/* và volcengine-plan/*. Nếu các mô hình đó chưa được tải, OpenClaw sẽ quay về danh mục chưa lọc thay vì hiển thị bộ chọn rỗng theo phạm vi nhà cung cấp.
- Mô hình tiêu chuẩn
- Mô hình lập trình (volcengine-plan)
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
BytePlus (Quốc tế)
BytePlus ARK cung cấp quyền truy cập vào cùng các mô hình như Volcano Engine cho người dùng quốc tế.- Nhà cung cấp:
byteplus(lập trình:byteplus-plan) - Xác thực:
BYTEPLUS_API_KEY - Mô hình ví dụ:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/* chung cũng được đăng ký cùng lúc.
Trong các bộ chọn mô hình khi onboarding/cấu hình, lựa chọn xác thực BytePlus ưu tiên cả các hàng byteplus/* và byteplus-plan/*. Nếu các mô hình đó chưa được tải, OpenClaw sẽ quay lại catalog chưa lọc thay vì hiển thị một bộ chọn trống bị giới hạn theo nhà cung cấp.
- Mô hình tiêu chuẩn
- Mô hình lập trình (byteplus-plan)
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Synthetic
Synthetic cung cấp các mô hình tương thích với Anthropic phía sau nhà cung cấpsynthetic:
- Nhà cung cấp:
synthetic - Xác thực:
SYNTHETIC_API_KEY - Mô hình ví dụ:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax được cấu hình quamodels.providers vì dùng các endpoint tùy chỉnh:
- MiniMax OAuth (Toàn cầu):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Khóa API MiniMax (Toàn cầu):
--auth-choice minimax-global-api - Khóa API MiniMax (CN):
--auth-choice minimax-cn-api - Xác thực:
MINIMAX_API_KEYchominimax;MINIMAX_OAUTH_TOKENhoặcMINIMAX_API_KEYchominimax-portal
Trên đường dẫn streaming tương thích Anthropic của MiniMax, OpenClaw tắt chế độ thinking theo mặc định trừ khi bạn đặt rõ ràng, và
/fast on sẽ ghi lại MiniMax-M2.7 thành MiniMax-M2.7-highspeed.- Mặc định văn bản/chat vẫn dùng
minimax/MiniMax-M2.7 - Tạo ảnh là
minimax/image-01hoặcminimax-portal/image-01 - Hiểu ảnh là
MiniMax-VL-01do Plugin sở hữu trên cả hai đường dẫn xác thực MiniMax - Tìm kiếm web vẫn dùng ID nhà cung cấp
minimax
LM Studio
LM Studio được phát hành dưới dạng Plugin nhà cung cấp đi kèm, dùng API native:- Nhà cung cấp:
lmstudio - Xác thực:
LM_API_TOKEN - URL cơ sở suy luận mặc định:
http://localhost:1234/v1
http://localhost:1234/api/v1/models trả về):
/api/v1/models và /api/v1/models/load native của LM Studio để khám phá + tự động tải, với /v1/chat/completions cho suy luận theo mặc định. Xem /providers/lmstudio để biết cách thiết lập và khắc phục sự cố.
Ollama
Ollama được phát hành dưới dạng Plugin nhà cung cấp đi kèm và dùng API native của Ollama:- Nhà cung cấp:
ollama - Xác thực: Không bắt buộc (máy chủ cục bộ)
- Mô hình ví dụ:
ollama/llama3.3 - Cài đặt: https://ollama.com/download
http://127.0.0.1:11434 khi bạn chọn tham gia bằng OLLAMA_API_KEY, và Plugin nhà cung cấp đi kèm thêm Ollama trực tiếp vào openclaw onboard và bộ chọn mô hình. Xem /providers/ollama để biết về onboarding, chế độ cloud/cục bộ và cấu hình tùy chỉnh.
vLLM
vLLM được phát hành dưới dạng Plugin nhà cung cấp đi kèm cho các máy chủ cục bộ/tự host tương thích OpenAI:- Nhà cung cấp:
vllm - Xác thực: Tùy chọn (phụ thuộc vào máy chủ của bạn)
- URL cơ sở mặc định:
http://127.0.0.1:8000/v1
/v1/models trả về):
SGLang
SGLang được phát hành dưới dạng Plugin nhà cung cấp đi kèm cho các máy chủ tự host nhanh tương thích OpenAI:- Nhà cung cấp:
sglang - Xác thực: Tùy chọn (phụ thuộc vào máy chủ của bạn)
- URL cơ sở mặc định:
http://127.0.0.1:30000/v1
/v1/models trả về):
Proxy cục bộ (LM Studio, vLLM, LiteLLM, v.v.)
Ví dụ (tương thích OpenAI):Trường tùy chọn mặc định
Trường tùy chọn mặc định
Với nhà cung cấp tùy chỉnh,
reasoning, input, cost, contextWindow và maxTokens là tùy chọn. Khi bị bỏ qua, OpenClaw mặc định dùng:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Quy tắc định hình tuyến proxy
Quy tắc định hình tuyến proxy
- Với
api: "openai-completions"trên các endpoint không native (mọibaseUrlkhông rỗng có host không phảiapi.openai.com), OpenClaw épcompat.supportsDeveloperRole: falseđể tránh lỗi 400 từ nhà cung cấp đối với các vai tròdeveloperkhông được hỗ trợ. - Các tuyến kiểu proxy tương thích OpenAI cũng bỏ qua định hình yêu cầu chỉ dành cho OpenAI native: không có
service_tier, không có Responsesstore, không có Completionsstore, không có gợi ý prompt-cache, không có định hình payload tương thích reasoning của OpenAI, và không có header ghi nhận OpenClaw ẩn. - Với các proxy Completions tương thích OpenAI cần trường riêng theo nhà cung cấp, đặt
agents.defaults.models["provider/model"].params.extra_body(hoặcextraBody) để hợp nhất JSON bổ sung vào thân yêu cầu gửi đi. - Với điều khiển chat-template của vLLM, đặt
agents.defaults.models["provider/model"].params.chat_template_kwargs. Plugin vLLM đi kèm tự động gửienable_thinking: falsevàforce_nonempty_content: truechovllm/nemotron-3-*khi cấp độ thinking của phiên đang tắt. - Với các mô hình cục bộ chậm hoặc host LAN/tailnet từ xa, đặt
models.providers.<id>.timeoutSeconds. Thiết lập này kéo dài xử lý yêu cầu HTTP của mô hình nhà cung cấp, bao gồm kết nối, header, streaming thân và hủy guarded-fetch tổng thể, mà không tăng timeout toàn bộ thời gian chạy agent. - Nếu
baseUrlrỗng/bị bỏ qua, OpenClaw giữ hành vi OpenAI mặc định (phân giải tớiapi.openai.com). - Vì an toàn,
compat.supportsDeveloperRole: truerõ ràng vẫn bị ghi đè trên các endpointopenai-completionskhông native. - Với
api: "anthropic-messages"trên các endpoint không trực tiếp (mọi nhà cung cấp khác vớianthropicchuẩn, hoặcmodels.providers.anthropic.baseUrltùy chỉnh có host không phải endpointapi.anthropic.comcông khai), OpenClaw loại bỏ các header beta Anthropic ngầm định nhưclaude-code-20250219,interleaved-thinking-2025-05-14và marker OAuth, để các proxy tùy chỉnh tương thích Anthropic không từ chối các cờ beta không được hỗ trợ. Đặt rõmodels.providers.<id>.headers["anthropic-beta"]nếu proxy của bạn cần các tính năng beta cụ thể.
Ví dụ CLI
Liên quan
- Tham chiếu cấu hình — các khóa cấu hình mô hình
- Chuyển đổi dự phòng mô hình — chuỗi dự phòng và hành vi thử lại
- Mô hình — cấu hình mô hình và bí danh
- Nhà cung cấp — hướng dẫn thiết lập theo từng nhà cung cấp