Groq
Groq fournit une inférence ultra-rapide sur des modèles open source (Llama, Gemma, Mistral, etc.) à l’aide d’un matériel LPU personnalisé. OpenClaw se connecte à Groq via son API compatible OpenAI.- Fournisseur :
groq - Authentification :
GROQ_API_KEY - API : compatible OpenAI
Démarrage rapide
- Obtenez une clé API depuis console.groq.com/keys.
- Définissez la clé API :
- Définissez un modèle par défaut :
Exemple de fichier de configuration
Transcription audio
Groq fournit aussi une transcription audio rapide basée sur Whisper. Lorsqu’il est configuré comme fournisseur de compréhension média, OpenClaw utilise le modèlewhisper-large-v3-turbo de Groq
pour transcrire les messages vocaux via la surface partagée tools.media.audio.
Remarque sur l’environnement
Si la Gateway s’exécute comme daemon (launchd/systemd), assurez-vous queGROQ_API_KEY est
disponible pour ce processus (par exemple dans ~/.openclaw/.env ou via
env.shellEnv).
Remarques sur l’audio
- Chemin de configuration partagé :
tools.media.audio - Base URL audio Groq par défaut :
https://api.groq.com/openai/v1 - Modèle audio Groq par défaut :
whisper-large-v3-turbo - La transcription audio Groq utilise le chemin compatible OpenAI
/audio/transcriptions
Modèles disponibles
Le catalogue de modèles de Groq change fréquemment. Exécutezopenclaw models list | grep groq
pour voir les modèles actuellement disponibles, ou consultez
console.groq.com/docs/models.
Choix populaires :
- Llama 3.3 70B Versatile - usage général, grand contexte
- Llama 3.1 8B Instant - rapide, léger
- Gemma 2 9B - compact, efficace
- Mixtral 8x7B - architecture MoE, raisonnement performant