OpenClaw 可以在回覆管線執行前,摘要傳入的媒體(圖片/音訊/影片)。它會在本機工具或提供者金鑰可用時自動偵測,也可以停用或自訂。如果理解功能關閉,模型仍會照常收到原始檔案/URL。 供應商特定的媒體行為由供應商 Plugin 註冊,而 OpenClaw 核心負責共用的Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
tools.media 設定、備援順序,以及回覆管線整合。
目標
- 選用:將傳入媒體預先整理成簡短文字,以便更快路由並改善命令解析。
- 保留原始媒體傳遞給模型(永遠)。
- 支援提供者 API 與 CLI 備援。
- 允許多個模型按順序備援(錯誤/大小/逾時)。
高階行為
如果理解失敗或已停用,回覆流程會繼續使用原始正文 + 附件。
設定概覽
tools.media 支援共用模型以及按能力覆寫:
Top-level keys
Top-level keys
tools.media.models:共用模型清單(使用capabilities控制)。tools.media.image/tools.media.audio/tools.media.video:- 預設值(
prompt、maxChars、maxBytes、timeoutSeconds、language) - 提供者覆寫(
baseUrl、headers、providerOptions) - 透過
tools.media.audio.providerOptions.deepgram設定 Deepgram 音訊選項 - 音訊逐字稿回顯控制(
echoTranscript,預設false;echoFormat) - 選用的按能力
models清單(優先於共用模型) attachments政策(mode、maxAttachments、prefer)scope(可選,依頻道/chatType/session key 控制)
- 預設值(
tools.media.concurrency:最大並行能力執行數(預設 2)。
模型項目
每個models[] 項目都可以是提供者或 CLI:
- Provider entry
- CLI entry
預設值與限制
建議預設值:maxChars:圖片/影片為 500(簡短、適合命令)maxChars:音訊為未設定(完整逐字稿,除非你設定限制)maxBytes:- 圖片:10MB
- 音訊:20MB
- 影片:50MB
Rules
Rules
- 如果媒體超過
maxBytes,該模型會被略過,並嘗試下一個模型。 - 小於 1024 位元組的音訊檔會被視為空白/損毀,並在提供者/CLI 轉錄前略過;傳入回覆上下文會收到確定性的佔位逐字稿,讓代理知道該語音備註太小。
- 如果模型回傳超過
maxChars,輸出會被裁切。 prompt預設為簡單的「Describe the .」加上maxChars指引(僅限圖片/影片)。- 如果目前主要圖片模型已原生支援視覺,OpenClaw 會略過
[Image]摘要區塊,改為將原始圖片傳入模型。 - 如果 Gateway/WebChat 主要模型僅支援文字,圖片附件會以卸載的
media://inbound/*參照保留,讓圖片/PDF 工具或已設定的圖片模型仍可檢查它們,而不是遺失附件。 - 明確的
openclaw infer image describe --model <provider/model>請求不同:它們會直接執行該具備圖片能力的提供者/模型,包括ollama/qwen2.5vl:7b等 Ollama 參照。 - 如果
<capability>.enabled: true但未設定模型,當提供者支援該能力時,OpenClaw 會嘗試使用目前的回覆模型。
自動偵測媒體理解(預設)
如果tools.media.<capability>.enabled 未設定為 false,且你尚未設定模型,OpenClaw 會依此順序自動偵測,並在第一個可用選項停止:
agents.defaults.imageModel
agents.defaults.imageModel 主要/備援參照(僅圖片)。
偏好 provider/model 參照。裸參照只會在可設定的具圖片能力提供者模型項目中有唯一符合時,才從中補上提供者。Local CLIs (audio only)
本機 CLI(若已安裝):
sherpa-onnx-offline(需要SHERPA_ONNX_MODEL_DIR,其中含有 encoder/decoder/joiner/tokens)whisper-cli(whisper-cpp;使用WHISPER_CPP_MODEL或隨附的 tiny 模型)whisper(Python CLI;自動下載模型)
Provider auth
- 支援該能力的已設定
models.providers.*項目會先於隨附的備援順序嘗試。 - 僅圖片的設定提供者若有具圖片能力的模型,即使不是隨附的供應商 Plugin,也會自動註冊為媒體理解。
- 明確選取時可使用 Ollama 圖片理解,例如透過
agents.defaults.imageModel或openclaw infer image describe --model ollama/<vision-model>。
- 音訊:OpenAI → Groq → xAI → Deepgram → Google → SenseAudio → ElevenLabs → Mistral
- 圖片:OpenAI → Anthropic → Google → MiniMax → MiniMax Portal → Z.AI
- 影片:Google → Qwen → Moonshot
二進位檔偵測在 macOS/Linux/Windows 上為最佳努力;請確認 CLI 位於
PATH(我們會展開 ~),或設定具有完整命令路徑的明確 CLI 模型。代理環境支援(提供者模型)
啟用提供者式音訊與影片媒體理解時,OpenClaw 會在提供者 HTTP 呼叫中遵循標準外送代理環境變數:HTTPS_PROXYHTTP_PROXYALL_PROXYhttps_proxyhttp_proxyall_proxy
能力(選用)
如果你設定capabilities,該項目只會針對那些媒體類型執行。對於共用清單,OpenClaw 可以推斷預設值:
openai、anthropic、minimax:圖片minimax-portal:圖片moonshot:圖片 + 影片openrouter:圖片google(Gemini API):圖片 + 音訊 + 影片qwen:圖片 + 影片mistral:音訊zai:圖片groq:音訊xai:音訊deepgram:音訊- 任何含有具圖片能力模型的
models.providers.<id>.models[]目錄:圖片
capabilities,以避免意外符合。如果省略 capabilities,該項目會符合它所在的清單。
提供者支援矩陣(OpenClaw 整合)
| 能力 | 提供者整合 | 備註 |
|---|---|---|
| 圖片 | OpenAI、OpenAI Codex OAuth、Codex app-server、OpenRouter、Anthropic、Google、MiniMax、Moonshot、Qwen、Z.AI、設定提供者 | 供應商 Plugin 會註冊圖片支援;openai-codex/* 使用 OAuth 提供者管線;codex/* 使用有界的 Codex app-server 回合;MiniMax 與 MiniMax OAuth 都使用 MiniMax-VL-01;具圖片能力的設定提供者會自動註冊。 |
| 音訊 | OpenAI、Groq、xAI、Deepgram、Google、SenseAudio、ElevenLabs、Mistral | 提供者轉錄(Whisper/Groq/xAI/Deepgram/Gemini/SenseAudio/Scribe/Voxtral)。 |
| 影片 | Google、Qwen、Moonshot | 透過供應商 Plugin 進行提供者影片理解;Qwen 影片理解使用 Standard DashScope 端點。 |
MiniMax 備註
minimax與minimax-portal圖片理解來自 Plugin 擁有的MiniMax-VL-01媒體提供者。- 隨附的 MiniMax 文字目錄仍以純文字開始;明確的
models.providers.minimax項目會具現化具圖片能力的 M2.7 聊天參照。
模型選擇指引
- 當品質與安全性重要時,偏好各媒體能力可用的最強最新世代模型。
- 對於處理不受信任輸入的工具啟用代理,避免使用較舊/較弱的媒體模型。
- 為每種能力保留至少一個備援以提高可用性(高品質模型 + 更快/更便宜的模型)。
- 當提供者 API 無法使用時,CLI 備援(
whisper-cli、whisper、gemini)很有用。 parakeet-mlx備註:使用--output-dir時,若輸出格式為txt(或未指定),OpenClaw 會讀取<output-dir>/<media-basename>.txt;非txt格式會退回 stdout。
附件政策
按能力的attachments 控制要處理哪些附件:
要處理第一個選取的附件,還是處理全部附件。
限制處理的數量。
候選附件中的選取偏好。
mode: "all" 時,輸出會標記為 [Image 1/2]、[Audio 2/2] 等。
檔案附件擷取行為
檔案附件擷取行為
- 擷取出的檔案文字會先包裝為不受信任的外部內容,再附加到媒體提示詞。
- 注入的區塊使用明確的邊界標記,例如
<<<EXTERNAL_UNTRUSTED_CONTENT id="...">>>/<<<END_EXTERNAL_UNTRUSTED_CONTENT id="...">>>,並包含Source: External中繼資料行。 - 這個附件擷取路徑刻意省略較長的
SECURITY NOTICE:橫幅,以避免讓媒體提示詞過度膨脹;邊界標記和中繼資料仍會保留。 - 如果檔案沒有可擷取的文字,OpenClaw 會注入
[No extractable text]。 - 如果 PDF 在此路徑中退回使用算繪出的頁面影像,媒體提示詞會保留預留位置
[PDF content rendered to images; images not forwarded to model],因為此附件擷取步驟會轉送文字區塊,而不是算繪出的 PDF 影像。
設定範例
- 共用模型 + 覆寫
- 僅音訊 + 影片
- 僅影像
- 多模態單一項目
狀態輸出
當媒體理解功能執行時,/status 會包含一行簡短摘要:
注意事項
- 理解功能採用盡力而為。錯誤不會阻擋回覆。
- 即使理解功能已停用,附件仍會傳遞給模型。
- 使用
scope限制理解功能的執行位置(例如僅限私訊)。