Groq 使用自訂 LPU 硬體,為開放原始碼模型 (Llama、Gemma、Mistral 等)提供超高速推論。OpenClaw 透過其與 OpenAI 相容的 API 連接到 Groq。Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
| 屬性 | 值 |
|---|---|
| 提供者 | groq |
| 驗證 | GROQ_API_KEY |
| API | 與 OpenAI 相容 |
開始使用
設定檔範例
內建型錄
Groq 的模型型錄經常變更。執行openclaw models list | grep groq
查看目前可用的模型,或查看
console.groq.com/docs/models。
| 模型 | 備註 |
|---|---|
| Llama 3.3 70B Versatile | 通用,大型上下文 |
| Llama 3.1 8B Instant | 快速,輕量 |
| Gemma 2 9B | 精簡,高效 |
| Mixtral 8x7B | MoE 架構,強推理能力 |
推理模型
OpenClaw 會將其共用的/think 等級對應到 Groq 模型專屬的
reasoning_effort 值。對於 qwen/qwen3-32b,停用思考會傳送
none,啟用思考會傳送 default。對於 Groq GPT-OSS 推理模型,
OpenClaw 會傳送 low、medium 或 high;停用思考時會省略
reasoning_effort,因為這些模型不支援停用值。
音訊轉錄
Groq 也提供快速的 Whisper 音訊轉錄。當設定為媒體理解提供者時, OpenClaw 會使用 Groq 的whisper-large-v3-turbo
模型,透過共用的 tools.media.audio
介面轉錄語音訊息。
Audio transcription details
Audio transcription details
| 屬性 | 值 |
|---|---|
| 共用設定路徑 | tools.media.audio |
| 預設基底 URL | https://api.groq.com/openai/v1 |
| 預設模型 | whisper-large-v3-turbo |
| API 端點 | 與 OpenAI 相容的 /audio/transcriptions |
Environment note
Environment note
如果 Gateway 以 daemon(launchd/systemd)方式執行,請確保
GROQ_API_KEY
可供該程序使用(例如,在 ~/.openclaw/.env 中,或透過
env.shellEnv)。相關
Model selection
選擇提供者、模型參照和容錯移轉行為。
Configuration reference
完整設定結構描述,包含提供者和音訊設定。
Groq Console
Groq 儀表板、API 文件和定價。
Groq model list
官方 Groq 模型型錄。