メインコンテンツへスキップ

動画生成

OpenClawエージェントは、テキストプロンプト、参照画像、または既存の動画から動画を生成できます。12のプロバイダーバックエンドに対応しており、それぞれモデルオプション、入力モード、機能セットが異なります。エージェントは、設定と利用可能なAPIキーに基づいて適切なプロバイダーを自動的に選択します。
video_generateツールは、少なくとも1つの動画生成プロバイダーが利用可能な場合にのみ表示されます。エージェントツールに表示されない場合は、プロバイダーのAPIキーを設定するか、agents.defaults.videoGenerationModelを構成してください。

クイックスタート

  1. 対応している任意のプロバイダーのAPIキーを設定します。
export GEMINI_API_KEY="your-key"
  1. 必要に応じてデフォルトモデルを固定します。
openclaw config set agents.defaults.videoGenerationModel.primary "google/veo-3.1-fast-generate-preview"
  1. エージェントに依頼します。
夕暮れの中、フレンドリーなロブスターがサーフィンをしている5秒間のシネマティックな動画を生成して。
エージェントは自動的にvideo_generateを呼び出します。ツールの許可リスト設定は不要です。

動画を生成するときの動作

動画生成は非同期です。セッション内でエージェントがvideo_generateを呼び出すと、次のように動作します。
  1. OpenClawがプロバイダーにリクエストを送信し、ただちにタスクIDを返します。
  2. プロバイダーがバックグラウンドでジョブを処理します(通常はプロバイダーと解像度に応じて30秒から5分)。
  3. 動画の準備ができると、OpenClawが同じセッションを内部完了イベントで再開します。
  4. エージェントが完成した動画を元の会話に投稿します。
ジョブの実行中に同じセッションで重複したvideo_generate呼び出しを行うと、新しい生成を開始する代わりに現在のタスクステータスが返されます。CLIから進行状況を確認するには、openclaw tasks listまたはopenclaw tasks show <taskId>を使用します。 セッションに紐づいたエージェント実行の外部(たとえば、ツールの直接呼び出し)では、ツールはインライン生成にフォールバックし、同じターンで最終的なメディアパスを返します。

対応プロバイダー

Providerデフォルトモデルテキスト画像参照動画参照APIキー
Alibabawan2.6-t2vYesYes (リモートURL)Yes (リモートURL)MODELSTUDIO_API_KEY
BytePlusseedance-1-0-lite-t2v-250428Yes画像1枚NoBYTEPLUS_API_KEY
ComfyUIworkflowYes画像1枚NoCOMFY_API_KEY or COMFY_CLOUD_API_KEY
falfal-ai/minimax/video-01-liveYes画像1枚NoFAL_KEY
Googleveo-3.1-fast-generate-previewYes画像1枚動画1本GEMINI_API_KEY
MiniMaxMiniMax-Hailuo-2.3Yes画像1枚NoMINIMAX_API_KEY
OpenAIsora-2Yes画像1枚動画1本OPENAI_API_KEY
Qwenwan2.6-t2vYesYes (リモートURL)Yes (リモートURL)QWEN_API_KEY
Runwaygen4.5Yes画像1枚動画1本RUNWAYML_API_SECRET
TogetherWan-AI/Wan2.2-T2V-A14BYes画像1枚NoTOGETHER_API_KEY
Vydraveo3Yes画像1枚 (kling)NoVYDRA_API_KEY
xAIgrok-imagine-videoYes画像1枚動画1本XAI_API_KEY
一部のプロバイダーは、追加または代替のAPIキー環境変数にも対応しています。詳しくは各プロバイダーページを参照してください。 実行時に利用可能なプロバイダーとモデルを確認するには、video_generate action=listを実行します。

ツールパラメータ

必須

ParameterTypeDescription
promptstring動画生成のテキスト説明(action: "generate"に必須)

コンテンツ入力

ParameterTypeDescription
imagestring単一の参照画像(パスまたはURL)
imagesstring[]複数の参照画像(最大5枚)
videostring単一の参照動画(パスまたはURL)
videosstring[]複数の参照動画(最大4本)

スタイル制御

ParameterTypeDescription
aspectRatiostring1:1, 2:3, 3:2, 3:4, 4:3, 4:5, 5:4, 9:16, 16:9, 21:9
resolutionstring480P, 720P, または 1080P
durationSecondsnumber目標の長さ(秒、最も近いプロバイダー対応値に丸められます)
sizestringプロバイダーが対応している場合のサイズ指定
audioboolean対応している場合に生成音声を有効化
watermarkboolean対応している場合にプロバイダーの透かしを切り替え

高度な設定

ParameterTypeDescription
actionstring"generate"(デフォルト)、"status"、または "list"
modelstringプロバイダー/モデルの上書き(例: runway/gen4.5
filenamestring出力ファイル名のヒント
すべてのプロバイダーがすべてのパラメータに対応しているわけではありません。未対応の上書き指定はベストエフォートで無視され、ツール結果で警告として報告されます。厳密な機能制限(参照入力が多すぎる場合など)は、送信前に失敗します。

アクション

  • generate(デフォルト) — 指定したプロンプトと任意の参照入力から動画を生成します。
  • status — 現在のセッションで実行中の動画タスクの状態を確認します。新しい生成は開始しません。
  • list — 利用可能なプロバイダー、モデル、およびその機能を表示します。

モデル選択

動画を生成する際、OpenClawは次の順序でモデルを解決します。
  1. modelツールパラメータ — エージェントが呼び出しで指定した場合。
  2. videoGenerationModel.primary — configから。
  3. videoGenerationModel.fallbacks — 順番に試行。
  4. 自動検出 — 有効な認証があるプロバイダーを使用し、現在のデフォルトプロバイダーから開始し、その後は残りのプロバイダーをアルファベット順で試します。
プロバイダーが失敗した場合、次の候補が自動的に試されます。すべての候補が失敗した場合、エラーには各試行の詳細が含まれます。
{
  agents: {
    defaults: {
      videoGenerationModel: {
        primary: "google/veo-3.1-fast-generate-preview",
        fallbacks: ["runway/gen4.5", "qwen/wan2.6-t2v"],
      },
    },
  },
}

プロバイダーに関する注意

ProviderNotes
AlibabaDashScope/Model Studioの非同期エンドポイントを使用します。参照画像と動画はリモートのhttp(s) URLである必要があります。
BytePlus参照画像は1枚のみ対応です。
ComfyUIワークフロー駆動のローカルまたはクラウド実行です。設定されたグラフを通じてテキストから動画、画像から動画に対応します。
fal長時間実行ジョブにキュー対応フローを使用します。参照画像は1枚のみ対応です。
GoogleGemini/Veoを使用します。画像1枚または動画1本の参照に対応します。
MiniMax参照画像は1枚のみ対応です。
OpenAI転送されるのはsize上書きのみです。その他のスタイル上書き(aspectRatioresolutionaudiowatermark)は警告付きで無視されます。
QwenAlibabaと同じDashScopeバックエンドです。参照入力はリモートのhttp(s) URLである必要があり、ローカルファイルは事前に拒否されます。
Runwaydata URI経由でローカルファイルに対応します。動画から動画への変換にはrunway/gen4_alephが必要です。テキストのみの実行では16:99:16のアスペクト比が使えます。
Together参照画像は1枚のみ対応です。
Vydra認証が失われるリダイレクトを避けるため、https://www.vydra.ai/api/v1を直接使用します。veo3はテキストから動画専用として含まれており、klingにはリモート画像URLが必要です。
xAIテキストから動画、画像から動画、およびリモート動画の編集/延長フローに対応します。

設定

OpenClaw configでデフォルトの動画生成モデルを設定します。
{
  agents: {
    defaults: {
      videoGenerationModel: {
        primary: "qwen/wan2.6-t2v",
        fallbacks: ["qwen/wan2.6-r2v-flash"],
      },
    },
  },
}
またはCLIから設定します。
openclaw config set agents.defaults.videoGenerationModel.primary "qwen/wan2.6-t2v"

関連