モデルプロバイダー
OpenClaw は多くのLLMプロバイダーを使用できます。プロバイダーを選択し、認証してから、デフォルトモデルをprovider/model として設定します。
チャットチャネルのドキュメント(WhatsApp/Telegram/Discord/Slack/Mattermost(Plugin)/など)をお探しですか? Channels を参照してください。
クイックスタート
- プロバイダーで認証します(通常は
openclaw onboardを使用します)。 - デフォルトモデルを設定します。
プロバイダーのドキュメント
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic(API + Claude CLI)
- Arcee AI(Trinityモデル)
- BytePlus(インターナショナル)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- GLMモデル
- Google(Gemini)
- Groq(LPU推論)
- Hugging Face(推論)
- inferrs(ローカルモデル)
- Kilocode
- LiteLLM(統合Gateway)
- LM Studio(ローカルモデル)
- MiniMax
- Mistral
- Moonshot AI(Kimi + Kimi Coding)
- NVIDIA
- Ollama(クラウド + ローカルモデル)
- OpenAI(API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity(ウェブ検索)
- Qianfan
- Qwen Cloud
- Runway
- SGLang(ローカルモデル)
- StepFun
- Synthetic
- Together AI
- Venice(Venice AI、プライバシー重視)
- Vercel AI Gateway
- Vydra
- vLLM(ローカルモデル)
- Volcengine(Doubao)
- xAI
- Xiaomi
- Z.AI
共有概要ページ
- 追加のバンドル済みバリアント - Anthropic Vertex、Copilot Proxy、Gemini CLI OAuth
- 画像生成 - 共通の
image_generateツール、プロバイダーの選択、フェイルオーバー - 音楽生成 - 共通の
music_generateツール、プロバイダーの選択、フェイルオーバー - 動画生成 - 共通の
video_generateツール、プロバイダーの選択、フェイルオーバー
音声文字起こしプロバイダー
コミュニティツール
- Claude Max API Proxy - Claude サブスクリプション認証情報向けのコミュニティプロキシ(使用前に Anthropic のポリシー/利用規約を確認してください)