Model Providers
OpenClaw は多くの LLM provider を利用できます。provider を選択して認証し、次に デフォルトモデルをprovider/model として設定してください。
チャットチャネルのドキュメント(WhatsApp/Telegram/Discord/Slack/Mattermost(plugin)/など)を探していますか? Channels を参照してください。
クイックスタート
- provider で認証します(通常は
openclaw onboardを使用します)。 - デフォルトモデルを設定します:
provider ドキュメント
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (Trinity モデル)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- GLM モデル
- Google (Gemini)
- Groq (LPU 推論)
- Hugging Face (Inference)
- inferrs (ローカルモデル)
- Kilocode
- LiteLLM (統合 Gateway)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (クラウド + ローカルモデル)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (Web 検索)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (ローカルモデル)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI、プライバシー重視)
- Vercel AI Gateway
- Vydra
- vLLM (ローカルモデル)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
共有概要ページ
- Additional bundled variants - Anthropic Vertex、Copilot Proxy、Gemini CLI OAuth
- Image Generation - 共有
image_generatetool、provider 選択、フェイルオーバー - Music Generation - 共有
music_generatetool、provider 選択、フェイルオーバー - Video Generation - 共有
video_generatetool、provider 選択、フェイルオーバー
文字起こし provider
コミュニティツール
- Claude Max API Proxy - Claude サブスクリプション認証情報向けのコミュニティプロキシ(使用前に Anthropic のポリシー/利用規約を確認してください)