跳轉到主要內容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenClaw 可以在回覆管線執行前,摘要傳入的媒體(圖片/音訊/影片)。它會在本機工具或提供者金鑰可用時自動偵測,也可以停用或自訂。如果理解功能關閉,模型仍會照常收到原始檔案/URL。 供應商特定的媒體行為由供應商 Plugin 註冊,而 OpenClaw 核心負責共用的 tools.media 設定、備援順序,以及回覆管線整合。

目標

  • 選用:將傳入媒體預先整理成簡短文字,以便更快路由並改善命令解析。
  • 保留原始媒體傳遞給模型(永遠)。
  • 支援提供者 APICLI 備援
  • 允許多個模型按順序備援(錯誤/大小/逾時)。

高階行為

1

Collect attachments

收集傳入附件(MediaPathsMediaUrlsMediaTypes)。
2

Select per-capability

對每個已啟用的能力(圖片/音訊/影片),依政策選取附件(預設:第一個)。
3

Choose model

選擇第一個符合資格的模型項目(大小 + 能力 + 驗證)。
4

Fallback on failure

如果模型失敗或媒體太大,備援到下一個項目
5

Apply success block

成功時:
  • Body 會變成 [Image][Audio][Video] 區塊。
  • 音訊會設定 {{Transcript}};命令解析在有標題文字時使用標題文字,否則使用逐字稿。
  • 標題會以 User text: 的形式保留在區塊內。
如果理解失敗或已停用,回覆流程會繼續使用原始正文 + 附件。

設定概覽

tools.media 支援共用模型以及按能力覆寫:
  • tools.media.models:共用模型清單(使用 capabilities 控制)。
  • tools.media.image / tools.media.audio / tools.media.video
    • 預設值(promptmaxCharsmaxBytestimeoutSecondslanguage
    • 提供者覆寫(baseUrlheadersproviderOptions
    • 透過 tools.media.audio.providerOptions.deepgram 設定 Deepgram 音訊選項
    • 音訊逐字稿回顯控制(echoTranscript,預設 falseechoFormat
    • 選用的按能力 models 清單(優先於共用模型)
    • attachments 政策(modemaxAttachmentsprefer
    • scope(可選,依頻道/chatType/session key 控制)
  • tools.media.concurrency:最大並行能力執行數(預設 2)。
{
  tools: {
    media: {
      models: [
        /* shared list */
      ],
      image: {
        /* optional overrides */
      },
      audio: {
        /* optional overrides */
        echoTranscript: true,
        echoFormat: '📝 "{transcript}"',
      },
      video: {
        /* optional overrides */
      },
    },
  },
}

模型項目

每個 models[] 項目都可以是提供者CLI
{
  type: "provider", // default if omitted
  provider: "openai",
  model: "gpt-5.5",
  prompt: "Describe the image in <= 500 chars.",
  maxChars: 500,
  maxBytes: 10485760,
  timeoutSeconds: 60,
  capabilities: ["image"], // optional, used for multi-modal entries
  profile: "vision-profile",
  preferredProfile: "vision-fallback",
}

預設值與限制

建議預設值:
  • maxChars:圖片/影片為 500(簡短、適合命令)
  • maxChars:音訊為未設定(完整逐字稿,除非你設定限制)
  • maxBytes
    • 圖片:10MB
    • 音訊:20MB
    • 影片:50MB
  • 如果媒體超過 maxBytes,該模型會被略過,並嘗試下一個模型
  • 小於 1024 位元組的音訊檔會被視為空白/損毀,並在提供者/CLI 轉錄前略過;傳入回覆上下文會收到確定性的佔位逐字稿,讓代理知道該語音備註太小。
  • 如果模型回傳超過 maxChars,輸出會被裁切。
  • prompt 預設為簡單的「Describe the .」加上 maxChars 指引(僅限圖片/影片)。
  • 如果目前主要圖片模型已原生支援視覺,OpenClaw 會略過 [Image] 摘要區塊,改為將原始圖片傳入模型。
  • 如果 Gateway/WebChat 主要模型僅支援文字,圖片附件會以卸載的 media://inbound/* 參照保留,讓圖片/PDF 工具或已設定的圖片模型仍可檢查它們,而不是遺失附件。
  • 明確的 openclaw infer image describe --model <provider/model> 請求不同:它們會直接執行該具備圖片能力的提供者/模型,包括 ollama/qwen2.5vl:7b 等 Ollama 參照。
  • 如果 <capability>.enabled: true 但未設定模型,當提供者支援該能力時,OpenClaw 會嘗試使用目前的回覆模型

自動偵測媒體理解(預設)

如果 tools.media.<capability>.enabled 設定為 false,且你尚未設定模型,OpenClaw 會依此順序自動偵測,並在第一個可用選項停止
1

Active reply model

當目前回覆模型的提供者支援該能力時,使用目前回覆模型。
2

agents.defaults.imageModel

agents.defaults.imageModel 主要/備援參照(僅圖片)。 偏好 provider/model 參照。裸參照只會在可設定的具圖片能力提供者模型項目中有唯一符合時,才從中補上提供者。
3

Local CLIs (audio only)

本機 CLI(若已安裝):
  • sherpa-onnx-offline(需要 SHERPA_ONNX_MODEL_DIR,其中含有 encoder/decoder/joiner/tokens)
  • whisper-cliwhisper-cpp;使用 WHISPER_CPP_MODEL 或隨附的 tiny 模型)
  • whisper(Python CLI;自動下載模型)
4

Gemini CLI

使用 read_many_filesgemini
5

Provider auth

  • 支援該能力的已設定 models.providers.* 項目會先於隨附的備援順序嘗試。
  • 僅圖片的設定提供者若有具圖片能力的模型,即使不是隨附的供應商 Plugin,也會自動註冊為媒體理解。
  • 明確選取時可使用 Ollama 圖片理解,例如透過 agents.defaults.imageModelopenclaw infer image describe --model ollama/<vision-model>
隨附的備援順序:
  • 音訊:OpenAI → Groq → xAI → Deepgram → Google → SenseAudio → ElevenLabs → Mistral
  • 圖片:OpenAI → Anthropic → Google → MiniMax → MiniMax Portal → Z.AI
  • 影片:Google → Qwen → Moonshot
若要停用自動偵測,請設定:
{
  tools: {
    media: {
      audio: {
        enabled: false,
      },
    },
  },
}
二進位檔偵測在 macOS/Linux/Windows 上為最佳努力;請確認 CLI 位於 PATH(我們會展開 ~),或設定具有完整命令路徑的明確 CLI 模型。

代理環境支援(提供者模型)

啟用提供者式音訊影片媒體理解時,OpenClaw 會在提供者 HTTP 呼叫中遵循標準外送代理環境變數:
  • HTTPS_PROXY
  • HTTP_PROXY
  • ALL_PROXY
  • https_proxy
  • http_proxy
  • all_proxy
如果未設定代理環境變數,媒體理解會使用直接出口。如果代理值格式錯誤,OpenClaw 會記錄警告並退回直接擷取。

能力(選用)

如果你設定 capabilities,該項目只會針對那些媒體類型執行。對於共用清單,OpenClaw 可以推斷預設值:
  • openaianthropicminimax圖片
  • minimax-portal圖片
  • moonshot圖片 + 影片
  • openrouter圖片
  • google(Gemini API):圖片 + 音訊 + 影片
  • qwen圖片 + 影片
  • mistral音訊
  • zai圖片
  • groq音訊
  • xai音訊
  • deepgram音訊
  • 任何含有具圖片能力模型的 models.providers.<id>.models[] 目錄:圖片
對於 CLI 項目,請明確設定 capabilities,以避免意外符合。如果省略 capabilities,該項目會符合它所在的清單。

提供者支援矩陣(OpenClaw 整合)

能力提供者整合備註
圖片OpenAI、OpenAI Codex OAuth、Codex app-server、OpenRouter、Anthropic、Google、MiniMax、Moonshot、Qwen、Z.AI、設定提供者供應商 Plugin 會註冊圖片支援;openai-codex/* 使用 OAuth 提供者管線;codex/* 使用有界的 Codex app-server 回合;MiniMax 與 MiniMax OAuth 都使用 MiniMax-VL-01;具圖片能力的設定提供者會自動註冊。
音訊OpenAI、Groq、xAI、Deepgram、Google、SenseAudio、ElevenLabs、Mistral提供者轉錄(Whisper/Groq/xAI/Deepgram/Gemini/SenseAudio/Scribe/Voxtral)。
影片Google、Qwen、Moonshot透過供應商 Plugin 進行提供者影片理解;Qwen 影片理解使用 Standard DashScope 端點。
MiniMax 備註
  • minimaxminimax-portal 圖片理解來自 Plugin 擁有的 MiniMax-VL-01 媒體提供者。
  • 隨附的 MiniMax 文字目錄仍以純文字開始;明確的 models.providers.minimax 項目會具現化具圖片能力的 M2.7 聊天參照。

模型選擇指引

  • 當品質與安全性重要時,偏好各媒體能力可用的最強最新世代模型。
  • 對於處理不受信任輸入的工具啟用代理,避免使用較舊/較弱的媒體模型。
  • 為每種能力保留至少一個備援以提高可用性(高品質模型 + 更快/更便宜的模型)。
  • 當提供者 API 無法使用時,CLI 備援(whisper-cliwhispergemini)很有用。
  • parakeet-mlx 備註:使用 --output-dir 時,若輸出格式為 txt(或未指定),OpenClaw 會讀取 <output-dir>/<media-basename>.txt;非 txt 格式會退回 stdout。

附件政策

按能力的 attachments 控制要處理哪些附件:
mode
"first" | "all"
預設值:"first"
要處理第一個選取的附件,還是處理全部附件。
maxAttachments
number
預設值:"1"
限制處理的數量。
prefer
"first" | "last" | "path" | "url"
候選附件中的選取偏好。
mode: "all" 時,輸出會標記為 [Image 1/2][Audio 2/2] 等。
  • 擷取出的檔案文字會先包裝為不受信任的外部內容,再附加到媒體提示詞。
  • 注入的區塊使用明確的邊界標記,例如 <<<EXTERNAL_UNTRUSTED_CONTENT id="...">>> / <<<END_EXTERNAL_UNTRUSTED_CONTENT id="...">>>,並包含 Source: External 中繼資料行。
  • 這個附件擷取路徑刻意省略較長的 SECURITY NOTICE: 橫幅,以避免讓媒體提示詞過度膨脹;邊界標記和中繼資料仍會保留。
  • 如果檔案沒有可擷取的文字,OpenClaw 會注入 [No extractable text]
  • 如果 PDF 在此路徑中退回使用算繪出的頁面影像,媒體提示詞會保留預留位置 [PDF content rendered to images; images not forwarded to model],因為此附件擷取步驟會轉送文字區塊,而不是算繪出的 PDF 影像。

設定範例

{
  tools: {
    media: {
      models: [
        { provider: "openai", model: "gpt-5.5", capabilities: ["image"] },
        {
          provider: "google",
          model: "gemini-3-flash-preview",
          capabilities: ["image", "audio", "video"],
        },
        {
          type: "cli",
          command: "gemini",
          args: [
            "-m",
            "gemini-3-flash",
            "--allowed-tools",
            "read_file",
            "Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
          ],
          capabilities: ["image", "video"],
        },
      ],
      audio: {
        attachments: { mode: "all", maxAttachments: 2 },
      },
      video: {
        maxChars: 500,
      },
    },
  },
}

狀態輸出

當媒體理解功能執行時,/status 會包含一行簡短摘要:
📎 Media: image ok (openai/gpt-5.4) · audio skipped (maxBytes)
這會顯示每項能力的結果,以及適用時所選的供應商/模型。

注意事項

  • 理解功能採用盡力而為。錯誤不會阻擋回覆。
  • 即使理解功能已停用,附件仍會傳遞給模型。
  • 使用 scope 限制理解功能的執行位置(例如僅限私訊)。

相關