メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

DeepInfra

DeepInfra は、単一のエンドポイントと API キーの背後で、最も人気のあるオープンソースモデルやフロンティアモデルへリクエストをルーティングする 統合 API を提供します。OpenAI 互換のため、ほとんどの OpenAI SDK はベース URL を切り替えるだけで動作します。

API キーの取得

  1. https://deepinfra.com/ に移動します
  2. サインインするか、アカウントを作成します
  3. Dashboard / Keys に移動し、新しい API キーを生成するか、自動作成されたものを使用します

CLI セットアップ

openclaw onboard --deepinfra-api-key <key>
または、環境変数を設定します。
export DEEPINFRA_API_KEY="<your-deepinfra-api-key>" # pragma: allowlist secret

設定スニペット

{
  env: { DEEPINFRA_API_KEY: "<your-deepinfra-api-key>" }, // pragma: allowlist secret
  agents: {
    defaults: {
      model: { primary: "deepinfra/deepseek-ai/DeepSeek-V3.2" },
    },
  },
}

サポートされる OpenClaw サーフェス

バンドルされた Plugin は、現在の OpenClaw プロバイダー契約に一致するすべての DeepInfra サーフェスを登録します。
サーフェスデフォルトモデルOpenClaw 設定/ツール
チャット / モデルプロバイダーdeepseek-ai/DeepSeek-V3.2agents.defaults.model
画像生成/編集black-forest-labs/FLUX-1-schnellimage_generate, agents.defaults.imageGenerationModel
メディア理解画像用 moonshotai/Kimi-K2.5受信画像理解
音声テキスト変換openai/whisper-large-v3-turbo受信音声文字起こし
テキスト音声変換hexgrad/Kokoro-82Mmessages.tts.provider: "deepinfra"
動画生成Pixverse/Pixverse-T2Vvideo_generate, agents.defaults.videoGenerationModel
メモリ埋め込みBAAI/bge-m3agents.defaults.memorySearch.provider: "deepinfra"
DeepInfra は、リランキング、分類、物体検出、その他のネイティブモデルタイプも公開しています。OpenClaw には現在、これらのカテゴリ向けのファーストクラスのプロバイダー契約がないため、この Plugin はまだそれらを登録していません。

利用可能なモデル

OpenClaw は起動時に利用可能な DeepInfra モデルを動的に検出します。利用可能なモデルの完全な一覧を確認するには、/models deepinfra を使用します。 DeepInfra.com で利用可能な任意のモデルは、deepinfra/ プレフィックス付きで使用できます。
deepinfra/MiniMaxAI/MiniMax-M2.5
deepinfra/deepseek-ai/DeepSeek-V3.2
deepinfra/moonshotai/Kimi-K2.5
deepinfra/zai-org/GLM-5.1
...and many more

注記

  • モデル参照は deepinfra/<provider>/<model> です(例: deepinfra/Qwen/Qwen3-Max)。
  • デフォルトモデル: deepinfra/deepseek-ai/DeepSeek-V3.2
  • ベース URL: https://api.deepinfra.com/v1/openai
  • ネイティブ動画生成は https://api.deepinfra.com/v1/inference/<model> を使用します。