DeepSeek 提供功能強大的 AI 模型,並具備與 OpenAI 相容的 API。Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
| 屬性 | 值 |
|---|---|
| 提供者 | deepseek |
| 認證 | DEEPSEEK_API_KEY |
| API | 與 OpenAI 相容 |
| 基底 URL | https://api.deepseek.com |
開始使用
取得你的 API 金鑰
在 platform.deepseek.com 建立 API 金鑰。
非互動式設定
非互動式設定
若是指令碼化或無頭安裝,請直接傳入所有旗標:
內建目錄
| 模型參照 | 名稱 | 輸入 | Context | 最大輸出 | 備註 |
|---|---|---|---|---|---|
deepseek/deepseek-v4-flash | DeepSeek V4 Flash | text | 1,000,000 | 384,000 | 預設模型;具備 V4 thinking 能力的介面 |
deepseek/deepseek-v4-pro | DeepSeek V4 Pro | text | 1,000,000 | 384,000 | 具備 V4 thinking 能力的介面 |
deepseek/deepseek-chat | DeepSeek Chat | text | 131,072 | 8,192 | DeepSeek V3.2 非 thinking 介面 |
deepseek/deepseek-reasoner | DeepSeek Reasoner | text | 131,072 | 65,536 | 啟用推理的 V3.2 介面 |
Thinking 與工具
DeepSeek V4 thinking 工作階段的重播合約比大多數與 OpenAI 相容的提供者更嚴格:在啟用 thinking 的回合使用工具後,DeepSeek 預期該回合被重播的 assistant 訊息在後續請求中包含reasoning_content。OpenClaw 會在
DeepSeek Plugin 內處理這一點,因此一般的多回合工具使用可搭配
deepseek/deepseek-v4-flash 和 deepseek/deepseek-v4-pro 運作。
如果你將現有工作階段從另一個與 OpenAI 相容的提供者切換到
DeepSeek V4 模型,較舊的 assistant 工具呼叫回合可能沒有原生
DeepSeek reasoning_content。OpenClaw 會在 DeepSeek V4 thinking 請求的重播
assistant 訊息中填補該缺失欄位,讓提供者可接受
歷史記錄,而不需要 /new。
當 OpenClaw 停用 thinking(包括 UI 的 None 選項)時,
OpenClaw 會傳送 DeepSeek thinking: { type: "disabled" },並從傳出的歷史記錄中移除重播的
reasoning_content。這會讓停用 thinking 的
工作階段留在非 thinking 的 DeepSeek 路徑上。
預設快速路徑請使用 deepseek/deepseek-v4-flash。當你想要更強的 V4 模型,且可接受
較高成本或延遲時,請使用
deepseek/deepseek-v4-pro。
即時測試
直接即時模型套件在現代模型集合中包含 DeepSeek V4。若只要 執行 DeepSeek V4 直接模型檢查:設定範例
相關內容
模型選擇
選擇提供者、模型參照與容錯移轉行為。
設定參考
agents、模型與提供者的完整設定參考。