Groq
Groq fornisce inferenza ultra-veloce su modelli open-source (Llama, Gemma, Mistral e altri) usando hardware LPU personalizzato. OpenClaw si connette a Groq tramite la sua API compatibile con OpenAI.- Provider:
groq - Autenticazione:
GROQ_API_KEY - API: compatibile con OpenAI
Avvio rapido
- Ottieni una chiave API da console.groq.com/keys.
- Imposta la chiave API:
- Imposta un modello predefinito:
Esempio di file di configurazione
Trascrizione audio
Groq fornisce anche una rapida trascrizione audio basata su Whisper. Quando configurato come provider di comprensione media, OpenClaw usa il modello Groqwhisper-large-v3-turbo
per trascrivere i messaggi vocali tramite la superficie condivisa tools.media.audio.
Nota sull’ambiente
Se il Gateway viene eseguito come daemon (launchd/systemd), assicurati cheGROQ_API_KEY sia
disponibile per quel processo (ad esempio in ~/.openclaw/.env o tramite
env.shellEnv).
Note audio
- Percorso di configurazione condiviso:
tools.media.audio - URL base audio Groq predefinito:
https://api.groq.com/openai/v1 - Modello audio Groq predefinito:
whisper-large-v3-turbo - La trascrizione audio Groq usa il percorso compatibile con OpenAI
/audio/transcriptions
Modelli disponibili
Il catalogo dei modelli Groq cambia frequentemente. Eseguiopenclaw models list | grep groq
per vedere i modelli attualmente disponibili, oppure consulta
console.groq.com/docs/models.
Tra le scelte più popolari:
- Llama 3.3 70B Versatile - uso generale, contesto ampio
- Llama 3.1 8B Instant - veloce, leggero
- Gemma 2 9B - compatto, efficiente
- Mixtral 8x7B - architettura MoE, reasoning solido