モデルプロバイダー
OpenClawは多くのLLMプロバイダーを利用できます。1つ選んで認証し、その後 デフォルトモデルをprovider/model として設定してください。
クイックスタート(2ステップ)
- プロバイダーで認証します(通常は
openclaw onboardを使用します)。 - デフォルトモデルを設定します:
サポートされているプロバイダー(スターターセット)
- Alibaba Model Studio
- Anthropic(API + Claude CLI)
- Amazon Bedrock
- BytePlus(International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- fal
- Fireworks
- GLM models
- MiniMax
- Mistral
- Moonshot AI(Kimi + Kimi Coding)
- OpenAI(API + Codex)
- OpenCode(Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice(Venice AI)
- xAI
- Z.AI
追加のバンドルされたプロバイダーバリアント
anthropic-vertex- Vertex認証情報が利用可能な場合の、Google Vertex上の暗黙的なAnthropicサポート。個別のオンボーディング認証選択肢はありませんcopilot-proxy- ローカルのVS Code Copilot Proxyブリッジ。openclaw onboard --auth-choice copilot-proxyを使用しますgoogle-gemini-cli- 非公式のGemini CLI OAuthフロー。ローカルのgeminiインストールが必要です(brew install gemini-cliまたはnpm install -g @google/gemini-cli)。デフォルトモデルはgoogle-gemini-cli/gemini-3-flash-preview。openclaw onboard --auth-choice google-gemini-cliまたはopenclaw models auth login --provider google-gemini-cli --set-defaultを使用します