メインコンテンツへスキップ

モデルプロバイダー

このページではLLM/モデルプロバイダーを扱います(WhatsApp/Telegramのようなチャットチャネルではありません)。 モデル選択ルールについては、/concepts/modelsを参照してください。

クイックルール

  • モデル参照はprovider/modelを使います(例: opencode/claude-opus-4-6)。
  • agents.defaults.modelsを設定すると、それが許可リストになります。
  • CLIヘルパー: openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • フォールバックのランタイムルール、クールダウンプローブ、セッションオーバーライドの永続化については、/concepts/model-failoverに記載されています。
  • models.providers.*.models[].contextWindowはネイティブなモデルメタデータです。models.providers.*.models[].contextTokensは実効ランタイム上限です。
  • Provider Plugin はregisterProvider({ catalog })を介してモデルカタログを注入できます。OpenClawはその出力をmodels.providersにマージしてからmodels.jsonを書き込みます。
  • プロバイダーマニフェストではproviderAuthEnvVarsproviderAuthAliasesを宣言できます。これにより、汎用の環境変数ベース認証プローブやプロバイダーバリアントでPluginランタイムをロードする必要がなくなります。残っているコアの環境変数マップは、非Plugin/コアプロバイダー用と、AnthropicのAPIキー優先オンボーディングのようないくつかの汎用優先順位ケース用だけになりました。
  • Provider Plugin は、normalizeModelIdnormalizeTransportnormalizeConfigapplyNativeStreamingUsageCompatresolveConfigApiKeyresolveSyntheticAuthshouldDeferSyntheticProfileAuthresolveDynamicModelprepareDynamicModelnormalizeResolvedModelcontributeResolvedModelCompatcapabilitiesnormalizeToolSchemasinspectToolSchemasresolveReasoningOutputModeprepareExtraParamscreateStreamFnwrapStreamFnresolveTransportTurnStateresolveWebSocketSessionPolicycreateEmbeddingProviderformatApiKeyrefreshOAuthbuildAuthDoctorHintmatchesContextOverflowErrorclassifyFailoverReasonisCacheTtlEligiblebuildMissingAuthMessagesuppressBuiltInModelaugmentModelCatalogisBinaryThinkingsupportsXHighThinkingresolveDefaultThinkingLevelapplyConfigDefaultsisModernModelRefprepareRuntimeAuthresolveUsageAuthfetchUsageSnapshotonModelSelectedを通じて、プロバイダーのランタイム動作も所有できます。
  • 注: プロバイダーランタイムのcapabilitiesは共有ランナーメタデータです(プロバイダーファミリー、transcript/toolingの癖、transport/cacheのヒント)。これは、Pluginが何を登録するか(テキスト推論、音声など)を説明する公開 capability モデルとは別物です。
  • バンドル版のcodexプロバイダーは、バンドル版Codexエージェントハーネスと組みになっています。Codex所有のログイン、モデル検出、ネイティブなスレッド再開、アプリサーバー実行が必要な場合は、codex/gpt-*を使ってください。通常のopenai/gpt-*参照は引き続きOpenAIプロバイダーと通常のOpenClawプロバイダーtransportを使います。Codex専用デプロイでは、agents.defaults.embeddedHarness.fallback: "none"で自動PIフォールバックを無効化できます。詳しくはCodex Harnessを参照してください。

Plugin所有のプロバイダー動作

Provider Plugin は、OpenClawが汎用推論ループを維持したまま、プロバイダー固有ロジックの大半を所有できるようになりました。 典型的な分担:
  • auth[].run / auth[].runNonInteractive: プロバイダーがopenclaw onboardopenclaw models auth、ヘッドレスセットアップ向けのオンボーディング/ログインフローを所有
  • wizard.setup / wizard.modelPicker: プロバイダーが認証方式ラベル、レガシーエイリアス、オンボーディングの許可リストヒント、オンボーディング/モデルピッカー内のセットアップ項目を所有
  • catalog: プロバイダーがmodels.providersに現れる
  • normalizeModelId: プロバイダーが、ルックアップや正規化の前にレガシー/プレビューのモデルIDを正規化
  • normalizeTransport: プロバイダーが、汎用モデル組み立ての前にtransportファミリーのapi / baseUrlを正規化。OpenClawはまず一致したプロバイダーを確認し、その後、実際にtransportを変更するものが見つかるまで、他のhook対応Provider Plugin を確認します
  • normalizeConfig: プロバイダーが、ランタイムで使う前にmodels.providers.<id>設定を正規化。OpenClawはまず一致したプロバイダーを確認し、その後、実際に設定を変更するものが見つかるまで、他のhook対応Provider Plugin を確認します。どのプロバイダーhookも設定を書き換えなかった場合、バンドルされているGoogleファミリーのヘルパーが引き続き対応するGoogleプロバイダー項目を正規化します。
  • applyNativeStreamingUsageCompat: プロバイダーが、設定プロバイダー向けに、エンドポイント駆動のネイティブなストリーミング使用量互換リライトを適用
  • resolveConfigApiKey: プロバイダーが、完全なランタイム認証ロードを強制せずに、設定プロバイダー向けの環境変数マーカー認証を解決。amazon-bedrockにはここに組み込みのAWS環境変数マーカーリゾルバーもありますが、Bedrockのランタイム認証自体はAWS SDKのデフォルトチェーンを使います。
  • resolveSyntheticAuth: プロバイダーが、平文シークレットを永続化せずに、ローカル/セルフホストやその他の設定ベース認証の可用性を公開可能
  • shouldDeferSyntheticProfileAuth: プロバイダーが、保存済みのsynthetic profileプレースホルダーを、環境変数/設定ベース認証より低い優先順位として扱うよう指定可能
  • resolveDynamicModel: プロバイダーが、まだローカル静的カタログに存在しないモデルIDを受け入れる
  • prepareDynamicModel: プロバイダーが、動的解決を再試行する前にメタデータ更新を必要とする
  • normalizeResolvedModel: プロバイダーが、transportまたはbase URLのリライトを必要とする
  • contributeResolvedModelCompat: プロバイダーが、他の互換transport経由で届いた場合でも、そのベンダーモデル向け互換フラグを提供する
  • capabilities: プロバイダーがtranscript/tooling/プロバイダーファミリーの癖を公開
  • normalizeToolSchemas: プロバイダーが、埋め込みランナーが参照する前にツールスキーマを整形
  • inspectToolSchemas: プロバイダーが、正規化後にtransport固有のスキーマ警告を提示
  • resolveReasoningOutputMode: プロバイダーが、ネイティブまたはタグ付きのreasoning出力契約を選択
  • prepareExtraParams: プロバイダーが、モデルごとのリクエストパラメータをデフォルト化または正規化
  • createStreamFn: プロバイダーが、通常のストリーム経路を完全にカスタムなtransportに置き換える
  • wrapStreamFn: プロバイダーが、リクエストヘッダー/ボディ/モデル互換ラッパーを適用
  • resolveTransportTurnState: プロバイダーが、ターンごとのネイティブtransportヘッダーまたはメタデータを提供
  • resolveWebSocketSessionPolicy: プロバイダーが、ネイティブWebSocketセッションヘッダーまたはセッションクールダウンポリシーを提供
  • createEmbeddingProvider: プロバイダーが、コアのembeddingスイッチボードではなくProvider Plugin に属するべきメモリembedding動作を所有
  • formatApiKey: プロバイダーが、保存済み認証プロファイルをtransportが期待するランタイムapiKey文字列に整形
  • refreshOAuth: 共有pi-aiリフレッシャーでは不十分な場合に、プロバイダーがOAuthリフレッシュを所有
  • buildAuthDoctorHint: OAuthリフレッシュ失敗時に、プロバイダーが修復ガイダンスを追加
  • matchesContextOverflowError: プロバイダーが、汎用ヒューリスティクスでは見落とすプロバイダー固有のコンテキストウィンドウ超過エラーを認識
  • classifyFailoverReason: プロバイダーが、プロバイダー固有の生transport/APIエラーを、レート制限や過負荷などのフェイルオーバー理由にマップ
  • isCacheTtlEligible: プロバイダーが、どの上流モデルIDがプロンプトキャッシュTTLをサポートするかを判定
  • buildMissingAuthMessage: プロバイダーが、汎用の認証ストアエラーをプロバイダー固有の復旧ヒントに置き換える
  • suppressBuiltInModel: プロバイダーが、古い上流行を非表示にし、直接解決失敗時にベンダー所有のエラーを返せる
  • augmentModelCatalog: プロバイダーが、検出と設定マージの後にsynthetic/finalカタログ行を追加
  • isBinaryThinking: プロバイダーが、二値のオン/オフthinking UXを所有
  • supportsXHighThinking: プロバイダーが、選択したモデルでxhighを有効化
  • resolveDefaultThinkingLevel: プロバイダーが、モデルファミリー向けのデフォルト/thinkポリシーを所有
  • applyConfigDefaults: プロバイダーが、認証モード、環境変数、またはモデルファミリーに基づいて、設定具体化中にプロバイダー固有のグローバルデフォルトを適用
  • isModernModelRef: プロバイダーが、live/smokeの優先モデル照合を所有
  • prepareRuntimeAuth: プロバイダーが、設定済みクレデンシャルを短命のランタイムトークンに変換
  • resolveUsageAuth: プロバイダーが、/usageおよび関連するステータス/レポート画面向けの使用量/クォータ認証情報を解決
  • fetchUsageSnapshot: プロバイダーが、使用量エンドポイントの取得/解析を所有し、コアは引き続き要約シェルと整形を所有
  • onModelSelected: プロバイダーが、テレメトリーやプロバイダー所有のセッション記録など、選択後の副作用を実行
現在のバンドル例:
  • anthropic: Claude 4.6の前方互換フォールバック、認証修復ヒント、使用量エンドポイント取得、cache-TTL/プロバイダーファミリーメタデータ、認証対応のグローバル設定デフォルト
  • amazon-bedrock: Bedrock固有のスロットル/未準備エラー向けに、プロバイダー所有のコンテキスト超過判定とフェイルオーバー理由分類を提供し、さらにClaude専用のリプレイポリシーガード用に共有のanthropic-by-modelリプレイファミリーも提供
  • anthropic-vertex: Anthropic-messageトラフィック向けのClaude専用リプレイポリシーガード
  • openrouter: モデルIDの透過処理、リクエストラッパー、プロバイダーcapabilityヒント、プロキシGeminiトラフィック上でのGemini thought-signatureサニタイズ、openrouter-thinkingストリームファミリーを通じたプロキシreasoning注入、ルーティングメタデータ転送、cache-TTLポリシー
  • github-copilot: オンボーディング/デバイスログイン、前方互換モデルフォールバック、Claude-thinking transcriptヒント、ランタイムトークン交換、使用量エンドポイント取得
  • openai: GPT-5.4の前方互換フォールバック、直接OpenAI transport正規化、Codex対応の認証欠落ヒント、Spark抑制、synthetic OpenAI/Codexカタログ行、thinking/live-modelポリシー、usage-tokenエイリアス正規化(input / outputおよびprompt / completionファミリー)、ネイティブOpenAI/Codexラッパー用の共有openai-responses-defaultsストリームファミリー、プロバイダーファミリーメタデータ、gpt-image-1向けのバンドル画像生成プロバイダー登録、sora-2向けのバンドル動画生成プロバイダー登録
  • googlegoogle-gemini-cli: Gemini 3.1の前方互換フォールバック、ネイティブGeminiリプレイ検証、ブートストラップリプレイサニタイズ、タグ付きreasoning出力モード、modern-modelマッチング、Gemini image-previewモデル向けのバンドル画像生成プロバイダー登録、Veoモデル向けのバンドル動画生成プロバイダー登録。Gemini CLI OAuthはさらに、認証プロファイルトークン整形、usage-token解析、使用量画面向けクォータエンドポイント取得も所有します
  • moonshot: 共有transport、Plugin所有のthinkingペイロード正規化
  • kilocode: 共有transport、Plugin所有のリクエストヘッダー、reasoningペイロード正規化、プロキシGemini thought-signatureサニタイズ、cache-TTLポリシー
  • zai: GLM-5の前方互換フォールバック、tool_streamデフォルト、cache-TTLポリシー、binary-thinking/live-modelポリシー、使用量認証 + クォータ取得。未知のglm-5* IDは、バンドルされたglm-4.7テンプレートから合成されます
  • xai: ネイティブResponses transport正規化、Grok高速バリアント向け/fastエイリアス書き換え、デフォルトtool_stream、xAI固有のtool-schema / reasoning-payloadクリーンアップ、grok-imagine-video向けのバンドル動画生成プロバイダー登録
  • mistral: Plugin所有のcapabilityメタデータ
  • opencodeopencode-go: Plugin所有のcapabilityメタデータ + プロキシGemini thought-signatureサニタイズ
  • alibaba: alibaba/wan2.6-t2vのような直接Wanモデル参照向けのPlugin所有動画生成カタログ
  • byteplus: Plugin所有カタログ + Seedanceのtext-to-video/image-to-videoモデル向けバンドル動画生成プロバイダー登録
  • fal: ホスト型サードパーティー動画モデル向けのバンドル動画生成プロバイダー登録、およびFLUX画像モデル向けのホスト型サードパーティー画像生成プロバイダー登録 + ホスト型サードパーティー動画モデル向けのバンドル動画生成プロバイダー登録
  • cloudflare-ai-gatewayhuggingfacekiminvidiaqianfanstepfunsyntheticvenicevercel-ai-gatewayvolcengine: Plugin所有カタログのみ
  • qwen: テキストモデル向けPlugin所有カタログ + そのマルチモーダル画面向けの共有media-understandingおよび動画生成プロバイダー登録。Qwen動画生成は、wan2.6-t2vwan2.7-r2vのようなバンドルWanモデルとともに、標準DashScope動画エンドポイントを使用します
  • runway: gen4.5のようなネイティブRunwayタスクベースモデル向けのPlugin所有動画生成プロバイダー登録
  • minimax: Plugin所有カタログ、Hailuo動画モデル向けのバンドル動画生成プロバイダー登録、image-01向けのバンドル画像生成プロバイダー登録、ハイブリッドAnthropic/OpenAIリプレイポリシー選択、使用量認証/スナップショットロジック
  • together: Plugin所有カタログ + Wan動画モデル向けのバンドル動画生成プロバイダー登録
  • xiaomi: Plugin所有カタログ + 使用量認証/スナップショットロジック
バンドル版のopenai Plugin は現在、openaiopenai-codexの両方のプロバイダーIDを所有しています。 これで、OpenClawの通常transportにまだ適合するプロバイダーをカバーしています。完全にカスタムなリクエスト実行子を必要とするプロバイダーは、別のより深い拡張サーフェスになります。

APIキーのローテーション

  • 選択されたプロバイダー向けに、汎用的なプロバイダーローテーションをサポートします。
  • 複数キーの設定方法:
    • OPENCLAW_LIVE_<PROVIDER>_KEY(単一のライブオーバーライド、最優先)
    • <PROVIDER>_API_KEYS(カンマまたはセミコロン区切りの一覧)
    • <PROVIDER>_API_KEY(プライマリキー)
    • <PROVIDER>_API_KEY_*(番号付き一覧。例: <PROVIDER>_API_KEY_1
  • Googleプロバイダーでは、GOOGLE_API_KEYもフォールバックとして含まれます。
  • キー選択順は優先順位を保持しつつ、重複値を排除します。
  • リクエストは、レート制限応答時にのみ次のキーで再試行されます(例: 429rate_limitquotaresource exhaustedToo many concurrent requestsThrottlingExceptionconcurrency limit reachedworkers_ai ... quota limit exceeded、または定期的な使用量上限メッセージ)。
  • レート制限以外の失敗は即座に失敗し、キーローテーションは試行されません。
  • すべての候補キーが失敗した場合、最後の試行の最終エラーが返されます。

組み込みプロバイダー(pi-ai catalog)

OpenClawにはpi-ai catalogが同梱されています。これらのプロバイダーではmodels.providers設定は不要です。認証を設定してモデルを選ぶだけです。

OpenAI

  • プロバイダー: openai
  • 認証: OPENAI_API_KEY
  • 任意のローテーション: OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2、加えてOPENCLAW_LIVE_OPENAI_KEY(単一オーバーライド)
  • モデル例: openai/gpt-5.4openai/gpt-5.4-pro
  • CLI: openclaw onboard --auth-choice openai-api-key
  • デフォルトtransportはautoです(WebSocket優先、SSEフォールバック)
  • モデルごとの上書きはagents.defaults.models["openai/<model>"].params.transportで行います("sse""websocket"、または"auto"
  • OpenAI Responses WebSocketウォームアップは、params.openaiWsWarmuptrue/false)でデフォルト有効です
  • OpenAI priority processingは、agents.defaults.models["openai/<model>"].params.serviceTierで有効化できます
  • /fastparams.fastModeは、直接openai/* Responsesリクエストをapi.openai.com上のservice_tier=priorityにマップします
  • 共有の/fastトグルではなく明示的なtierを使いたい場合は、params.serviceTierを使用してください
  • 隠しOpenClaw attributionヘッダー(originatorversionUser-Agent)は、api.openai.comへのネイティブOpenAIトラフィックにのみ適用され、汎用のOpenAI互換プロキシには適用されません
  • ネイティブOpenAIルートでは、Responsesのstore、プロンプトキャッシュヒント、OpenAI reasoning互換のペイロード整形も維持されます。プロキシルートでは維持されません
  • openai/gpt-5.3-codex-sparkは、ライブOpenAI APIが拒否するため、OpenClawでは意図的に抑制されています。SparkはCodex専用として扱われます
{
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

Anthropic

  • プロバイダー: anthropic
  • 認証: ANTHROPIC_API_KEY
  • 任意のローテーション: ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2、加えてOPENCLAW_LIVE_ANTHROPIC_KEY(単一オーバーライド)
  • モデル例: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice apiKey
  • 直接の公開Anthropicリクエストは、共有の/fastトグルとparams.fastModeもサポートします。これにはapi.anthropic.comへ送信されるAPIキー認証およびOAuth認証トラフィックが含まれます。OpenClawはこれをAnthropicのservice_tierauto vs standard_only)にマップします
  • Anthropic注記: Anthropicスタッフから、OpenClawスタイルのClaude CLI利用は再び許可されていると伝えられているため、Anthropicが新しいポリシーを公開しない限り、OpenClawはClaude CLI再利用とclaude -p利用をこの統合向けに認可済みとして扱います。
  • Anthropic setup-tokenも引き続きサポート対象のOpenClawトークン経路として利用可能ですが、OpenClawは現在、利用可能であればClaude CLI再利用とclaude -pを優先します。
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Code(Codex)

  • プロバイダー: openai-codex
  • 認証: OAuth(ChatGPT)
  • モデル例: openai-codex/gpt-5.4
  • CLI: openclaw onboard --auth-choice openai-codex または openclaw models auth login --provider openai-codex
  • デフォルトtransportはautoです(WebSocket優先、SSEフォールバック)
  • モデルごとの上書きはagents.defaults.models["openai-codex/<model>"].params.transportで行います("sse""websocket"、または"auto"
  • params.serviceTierも、ネイティブCodex Responsesリクエスト(chatgpt.com/backend-api)で転送されます
  • 隠しOpenClaw attributionヘッダー(originatorversionUser-Agent)は、chatgpt.com/backend-apiへのネイティブCodexトラフィックにのみ付与され、汎用のOpenAI互換プロキシには付与されません
  • 直接openai/*と同じ/fastトグルおよびparams.fastMode設定を共有し、OpenClawはこれをservice_tier=priorityにマップします
  • openai-codex/gpt-5.3-codex-sparkは、Codex OAuth catalogが公開している場合は引き続き利用可能です。利用権限に依存します
  • openai-codex/gpt-5.4は、ネイティブのcontextWindow = 1050000とデフォルトのランタイムcontextTokens = 272000を維持します。ランタイム上限はmodels.providers.openai-codex.models[].contextTokensで上書きできます
  • ポリシー注記: OpenAI Codex OAuthは、OpenClawのような外部ツール/ワークフロー向けに明示的にサポートされています
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.4", contextTokens: 160000 }],
      },
    },
  },
}

その他のサブスクリプション型ホストオプション

  • Qwen Cloud: Qwen Cloudプロバイダーサーフェス + Alibaba DashScopeおよびCoding Planエンドポイントマッピング
  • MiniMax: MiniMax Coding Plan OAuthまたはAPIキーアクセス
  • GLM Models: Z.AI Coding Planまたは汎用APIエンドポイント

OpenCode

  • 認証: OPENCODE_API_KEY(またはOPENCODE_ZEN_API_KEY
  • Zenランタイムプロバイダー: opencode
  • Goランタイムプロバイダー: opencode-go
  • モデル例: opencode/claude-opus-4-6opencode-go/kimi-k2.5
  • CLI: openclaw onboard --auth-choice opencode-zen または openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(APIキー)

  • プロバイダー: google
  • 認証: GEMINI_API_KEY
  • 任意のローテーション: GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEYフォールバック、加えてOPENCLAW_LIVE_GEMINI_KEY(単一オーバーライド)
  • モデル例: google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 互換性: google/gemini-3.1-flash-previewを使う旧OpenClaw設定は、google/gemini-3-flash-previewに正規化されます
  • CLI: openclaw onboard --auth-choice gemini-api-key
  • 直接Gemini実行では、agents.defaults.models["google/<model>"].params.cachedContent(または旧cached_content)も受け付け、プロバイダーネイティブなcachedContents/...ハンドルを転送します。GeminiキャッシュヒットはOpenClawのcacheReadとして表示されます

Google VertexとGemini CLI

  • プロバイダー: google-vertexgoogle-gemini-cli
  • 認証: Vertexはgcloud ADCを使用し、Gemini CLIは独自のOAuthフローを使用します
  • 注意: OpenClawでのGemini CLI OAuthは非公式な統合です。サードパーティークライアントの使用後にGoogleアカウント制限がかかったという報告があります。利用する場合はGoogleの利用規約を確認し、重要でないアカウントを使ってください。
  • Gemini CLI OAuthは、バンドル版google Plugin の一部として提供されます。
    • まずGemini CLIをインストールします:
      • brew install gemini-cli
      • または npm install -g @google/gemini-cli
    • 有効化: openclaw plugins enable google
    • ログイン: openclaw models auth login --provider google-gemini-cli --set-default
    • デフォルトモデル: google-gemini-cli/gemini-3-flash-preview
    • 注: openclaw.jsonにclient idやsecretを貼り付けることはありません。CLIログインフローは、トークンをGatewayホスト上の認証プロファイルに保存します。
    • ログイン後にリクエストが失敗する場合は、GatewayホストでGOOGLE_CLOUD_PROJECTまたはGOOGLE_CLOUD_PROJECT_IDを設定してください。
    • Gemini CLIのJSON応答はresponseから解析され、使用量はstatsにフォールバックし、stats.cachedはOpenClawのcacheReadに正規化されます。

Z.AI(GLM)

  • プロバイダー: zai
  • 認証: ZAI_API_KEY
  • モデル例: zai/glm-5.1
  • CLI: openclaw onboard --auth-choice zai-api-key
    • エイリアス: z.ai/*z-ai/*zai/*に正規化されます
    • zai-api-keyは一致するZ.AIエンドポイントを自動検出します。zai-coding-globalzai-coding-cnzai-globalzai-cnは特定のサーフェスを強制します

Vercel AI Gateway

  • プロバイダー: vercel-ai-gateway
  • 認証: AI_GATEWAY_API_KEY
  • モデル例: vercel-ai-gateway/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • プロバイダー: kilocode
  • 認証: KILOCODE_API_KEY
  • モデル例: kilocode/kilo/auto
  • CLI: openclaw onboard --auth-choice kilocode-api-key
  • ベースURL: https://api.kilo.ai/api/gateway/
  • 静的フォールバックcatalogにはkilocode/kilo/autoが同梱されます。ライブのhttps://api.kilo.ai/api/gateway/models検出により、ランタイムcatalogがさらに拡張される場合があります。
  • kilocode/kilo/autoの背後にある正確な上流ルーティングはKilo Gatewayが所有しており、OpenClawにハードコードされていません。
セットアップ詳細は/providers/kilocodeを参照してください。

その他のバンドル版Provider Plugin

  • OpenRouter: openrouterOPENROUTER_API_KEY
  • モデル例: openrouter/auto
  • OpenClawは、リクエストが実際にopenrouter.aiを対象としている場合にのみ、OpenRouterの文書化されたapp-attributionヘッダーを適用します
  • OpenRouter固有のAnthropic cache_controlマーカーも同様に、任意のプロキシURLではなく、検証済みのOpenRouterルートにのみ適用されます
  • OpenRouterは引き続きプロキシ型のOpenAI互換パス上にあるため、ネイティブOpenAI専用のリクエスト整形(serviceTier、Responsesのstore、プロンプトキャッシュヒント、OpenAI reasoning互換ペイロード)は転送されません
  • GeminiベースのOpenRouter参照では、プロキシGemini thought-signatureサニタイズのみが維持されます。ネイティブGeminiのリプレイ検証とブートストラップ書き換えは無効のままです
  • Kilo Gateway: kilocodeKILOCODE_API_KEY
  • モデル例: kilocode/kilo/auto
  • GeminiベースのKilo参照では、同じプロキシGemini thought-signatureサニタイズ経路が維持されます。kilocode/kilo/autoおよびその他のプロキシreasoning非対応ヒントでは、プロキシreasoning注入はスキップされます
  • MiniMax: minimax(APIキー)とminimax-portal(OAuth)
  • 認証: minimaxにはMINIMAX_API_KEYminimax-portalにはMINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEY
  • モデル例: minimax/MiniMax-M2.7またはminimax-portal/MiniMax-M2.7
  • MiniMaxのオンボーディング/APIキー設定では、input: ["text", "image"]を持つ明示的なM2.7モデル定義を書き込みます。バンドル版プロバイダーcatalogでは、そのプロバイダー設定が具体化されるまで、チャット参照はテキスト専用のままです
  • Moonshot: moonshotMOONSHOT_API_KEY
  • モデル例: moonshot/kimi-k2.5
  • Kimi Coding: kimiKIMI_API_KEYまたはKIMICODE_API_KEY
  • モデル例: kimi/kimi-code
  • Qianfan: qianfanQIANFAN_API_KEY
  • モデル例: qianfan/deepseek-v3.2
  • Qwen Cloud: qwenQWEN_API_KEYMODELSTUDIO_API_KEY、またはDASHSCOPE_API_KEY
  • モデル例: qwen/qwen3.5-plus
  • NVIDIA: nvidiaNVIDIA_API_KEY
  • モデル例: nvidia/nvidia/llama-3.1-nemotron-70b-instruct
  • StepFun: stepfun / stepfun-planSTEPFUN_API_KEY
  • モデル例: stepfun/step-3.5-flashstepfun-plan/step-3.5-flash-2603
  • Together: togetherTOGETHER_API_KEY
  • モデル例: together/moonshotai/Kimi-K2.5
  • Venice: veniceVENICE_API_KEY
  • Xiaomi: xiaomiXIAOMI_API_KEY
  • モデル例: xiaomi/mimo-v2-flash
  • Vercel AI Gateway: vercel-ai-gatewayAI_GATEWAY_API_KEY
  • Hugging Face Inference: huggingfaceHUGGINGFACE_HUB_TOKENまたはHF_TOKEN
  • Cloudflare AI Gateway: cloudflare-ai-gatewayCLOUDFLARE_AI_GATEWAY_API_KEY
  • Volcengine: volcengineVOLCANO_ENGINE_API_KEY
  • モデル例: volcengine-plan/ark-code-latest
  • BytePlus: byteplusBYTEPLUS_API_KEY
  • モデル例: byteplus-plan/ark-code-latest
  • xAI: xaiXAI_API_KEY
    • ネイティブのバンドル版xAIリクエストはxAI Responsesパスを使用します
    • /fastまたはparams.fastMode: trueは、grok-3grok-3-minigrok-4grok-4-0709をそれぞれの*-fastバリアントに書き換えます
    • tool_streamはデフォルトで有効です。無効にするには、agents.defaults.models["xai/<model>"].params.tool_streamfalseに設定してください
  • Mistral: mistralMISTRAL_API_KEY
  • モデル例: mistral/mistral-large-latest
  • CLI: openclaw onboard --auth-choice mistral-api-key
  • Groq: groqGROQ_API_KEY
  • Cerebras: cerebrasCEREBRAS_API_KEY
    • Cerebras上のGLMモデルはzai-glm-4.7およびzai-glm-4.6というIDを使用します。
    • OpenAI互換ベースURL: https://api.cerebras.ai/v1
  • GitHub Copilot: github-copilotCOPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN
  • Hugging Face Inferenceのモデル例: huggingface/deepseek-ai/DeepSeek-R1。CLI: openclaw onboard --auth-choice huggingface-api-keyHugging Face (Inference)を参照してください。

models.providers経由のプロバイダー(カスタム/ベースURL)

models.providers(またはmodels.json)を使うと、カスタムプロバイダーやOpenAI/Anthropic互換プロキシを追加できます。 以下のバンドル版Provider Plugin の多くは、すでにデフォルトcatalogを公開しています。 デフォルトのベースURL、ヘッダー、またはモデル一覧を上書きしたい場合にのみ、明示的なmodels.providers.<id>項目を使用してください。

Moonshot AI(Kimi)

Moonshotはバンドル版Provider Plugin として提供されます。通常は組み込みプロバイダーを使い、ベースURLまたはモデルメタデータを上書きする必要がある場合にのみ、明示的なmodels.providers.moonshot項目を追加してください。
  • プロバイダー: moonshot
  • 認証: MOONSHOT_API_KEY
  • モデル例: moonshot/kimi-k2.5
  • CLI: openclaw onboard --auth-choice moonshot-api-key または openclaw onboard --auth-choice moonshot-api-key-cn
Kimi K2モデルID:
  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo
  • moonshot/kimi-k2-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi CodingはMoonshot AIのAnthropic互換エンドポイントを使用します。
  • プロバイダー: kimi
  • 認証: KIMI_API_KEY
  • モデル例: kimi/kimi-code
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi/kimi-code" } },
  },
}
旧来のkimi/k2p5も互換モデルIDとして引き続き受け付けられます。

Volcano Engine(Doubao)

Volcano Engine(火山引擎)は、中国でDoubaoやその他のモデルへのアクセスを提供します。
  • プロバイダー: volcengine(coding: volcengine-plan
  • 認証: VOLCANO_ENGINE_API_KEY
  • モデル例: volcengine-plan/ark-code-latest
  • CLI: openclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
  },
}
オンボーディングはデフォルトでcodingサーフェスを選びますが、一般的なvolcengine/*catalogも同時に登録されます。 オンボーディング/モデル設定ピッカーでは、Volcengineの認証選択はvolcengine/*行とvolcengine-plan/*行の両方を優先します。これらのモデルがまだ読み込まれていない場合、OpenClawは空のプロバイダースコープ付きピッカーを表示する代わりに、フィルターなしcatalogへフォールバックします。 利用可能なモデル:
  • volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127(Kimi K2.5)
  • volcengine/glm-4-7-251222(GLM 4.7)
  • volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Codingモデル(volcengine-plan):
  • volcengine-plan/ark-code-latest
  • volcengine-plan/doubao-seed-code
  • volcengine-plan/kimi-k2.5
  • volcengine-plan/kimi-k2-thinking
  • volcengine-plan/glm-4.7

BytePlus(International)

BytePlus ARKは、国際ユーザー向けにVolcano Engineと同じモデルへのアクセスを提供します。
  • プロバイダー: byteplus(coding: byteplus-plan
  • 認証: BYTEPLUS_API_KEY
  • モデル例: byteplus-plan/ark-code-latest
  • CLI: openclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
  },
}
オンボーディングはデフォルトでcodingサーフェスを選びますが、一般的なbyteplus/*catalogも同時に登録されます。 オンボーディング/モデル設定ピッカーでは、BytePlusの認証選択はbyteplus/*行とbyteplus-plan/*行の両方を優先します。これらのモデルがまだ読み込まれていない場合、OpenClawは空のプロバイダースコープ付きピッカーを表示する代わりに、フィルターなしcatalogへフォールバックします。 利用可能なモデル:
  • byteplus/seed-1-8-251228(Seed 1.8)
  • byteplus/kimi-k2-5-260127(Kimi K2.5)
  • byteplus/glm-4-7-251222(GLM 4.7)
Codingモデル(byteplus-plan):
  • byteplus-plan/ark-code-latest
  • byteplus-plan/doubao-seed-code
  • byteplus-plan/kimi-k2.5
  • byteplus-plan/kimi-k2-thinking
  • byteplus-plan/glm-4.7

Synthetic

Syntheticは、syntheticプロバイダーの背後でAnthropic互換モデルを提供します。
  • プロバイダー: synthetic
  • 認証: SYNTHETIC_API_KEY
  • モデル例: synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLI: openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMaxはカスタムエンドポイントを使用するため、models.providers経由で設定します。
  • MiniMax OAuth(Global): --auth-choice minimax-global-oauth
  • MiniMax OAuth(CN): --auth-choice minimax-cn-oauth
  • MiniMax APIキー(Global): --auth-choice minimax-global-api
  • MiniMax APIキー(CN): --auth-choice minimax-cn-api
  • 認証: minimaxにはMINIMAX_API_KEYminimax-portalにはMINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEY
セットアップ詳細、モデルオプション、設定スニペットについては/providers/minimaxを参照してください。 MiniMaxのAnthropic互換ストリーミングパスでは、OpenClawは明示的に設定しない限りthinkingをデフォルトで無効にし、/fast onMiniMax-M2.7MiniMax-M2.7-highspeedに書き換えます。 Plugin所有のcapability分割:
  • テキスト/チャットのデフォルトはminimax/MiniMax-M2.7のままです
  • 画像生成はminimax/image-01またはminimax-portal/image-01です
  • 画像理解は、両方のMiniMax認証パスでPlugin所有のMiniMax-VL-01です
  • Web検索は引き続きプロバイダーID minimaxに残ります

LM Studio

LM Studioは、ネイティブAPIを使用するバンドル版Provider Plugin として提供されます。
  • プロバイダー: lmstudio
  • 認証: LM_API_TOKEN
  • デフォルト推論ベースURL: http://localhost:1234/v1
次にモデルを設定します(http://localhost:1234/api/v1/modelsが返すIDの1つに置き換えてください):
{
  agents: {
    defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
  },
}
OpenClawは、検出 + 自動ロードにはLM Studioネイティブの/api/v1/models/api/v1/models/loadを使用し、デフォルトでは推論に/v1/chat/completionsを使用します。セットアップとトラブルシューティングについては/providers/lmstudioを参照してください。

Ollama

Ollamaはバンドル版Provider Plugin として提供され、OllamaネイティブAPIを使用します。
  • プロバイダー: ollama
  • 認証: 不要(ローカルサーバー)
  • モデル例: ollama/llama3.3
  • インストール: https://ollama.com/download
# Ollamaをインストールしてから、モデルをpullします:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}
OLLAMA_API_KEYでオプトインすると、Ollamaはローカルのhttp://127.0.0.1:11434で検出され、バンドル版Provider Plugin がOllamaをopenclaw onboardとモデルピッカーに直接追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については/providers/ollamaを参照してください。

vLLM

vLLMは、ローカル/セルフホストのOpenAI互換サーバー向けバンドル版Provider Plugin として提供されます。
  • プロバイダー: vllm
  • 認証: 任意(サーバーに依存)
  • デフォルトベースURL: http://127.0.0.1:8000/v1
ローカルで自動検出にオプトインするには(サーバーが認証を強制しない場合は任意の値で動作します):
export VLLM_API_KEY="vllm-local"
次にモデルを設定します(/v1/modelsが返すIDの1つに置き換えてください):
{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}
詳しくは/providers/vllmを参照してください。

SGLang

SGLangは、高速なセルフホストOpenAI互換サーバー向けバンドル版Provider Plugin として提供されます。
  • プロバイダー: sglang
  • 認証: 任意(サーバーに依存)
  • デフォルトベースURL: http://127.0.0.1:30000/v1
ローカルで自動検出にオプトインするには(サーバーが認証を強制しない場合は任意の値で動作します):
export SGLANG_API_KEY="sglang-local"
次にモデルを設定します(/v1/modelsが返すIDの1つに置き換えてください):
{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}
詳しくは/providers/sglangを参照してください。

ローカルプロキシ(LM Studio、vLLM、LiteLLMなど)

例(OpenAI互換):
{
  agents: {
    defaults: {
      model: { primary: "lmstudio/my-local-model" },
      models: { "lmstudio/my-local-model": { alias: "Local" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "my-local-model",
            name: "Local Model",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}
注:
  • カスタムプロバイダーでは、reasoninginputcostcontextWindowmaxTokensは任意です。 省略した場合、OpenClawのデフォルトは次のとおりです:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • 推奨: プロキシ/モデルの上限に一致する明示的な値を設定してください。
  • ネイティブでないエンドポイント上のapi: "openai-completions"では(ホストがapi.openai.comではない空でないbaseUrl)、OpenClawは、未対応のdeveloperロールによるプロバイダー400エラーを避けるため、compat.supportsDeveloperRole: falseを強制します。
  • プロキシ型のOpenAI互換ルートでも、ネイティブOpenAI専用のリクエスト整形はスキップされます。service_tier、Responsesのstore、プロンプトキャッシュヒント、OpenAI reasoning互換ペイロード整形、隠しOpenClaw attributionヘッダーはいずれも送信されません。
  • baseUrlが空または省略されている場合、OpenClawはデフォルトのOpenAI動作(api.openai.comに解決)を維持します。
  • 安全のため、ネイティブでないopenai-completionsエンドポイントでは、明示的なcompat.supportsDeveloperRole: trueも引き続き上書きされます。

CLIの例

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
関連項目: 完全な設定例については/gateway/configurationを参照してください。

関連