Groq
Groq bietet ultraschnelle Inferenz auf Open-Source-Modellen (Llama, Gemma, Mistral und mehr) mit benutzerdefinierter LPU-Hardware. OpenClaw verbindet sich über die OpenAI-kompatible API mit Groq.- Provider:
groq - Authentifizierung:
GROQ_API_KEY - API: OpenAI-kompatibel
Schnellstart
- Holen Sie sich einen API-Schlüssel von console.groq.com/keys.
- Setzen Sie den API-Schlüssel:
- Legen Sie ein Standardmodell fest:
Beispiel für eine Konfigurationsdatei
Audiotranskription
Groq bietet außerdem schnelle Whisper-basierte Audiotranskription. Wenn Groq als Provider für Medienverständnis konfiguriert ist, verwendet OpenClaw das Modellwhisper-large-v3-turbo
von Groq, um Sprachnachrichten über die gemeinsame Oberfläche tools.media.audio
zu transkribieren.
Hinweis zur Umgebung
Wenn das Gateway als Daemon ausgeführt wird (launchd/systemd), stellen Sie sicher, dass GROQ_API_KEY
für diesen Prozess verfügbar ist (zum Beispiel in ~/.openclaw/.env oder über
env.shellEnv).
Hinweise zu Audio
- Gemeinsamer Konfigurationspfad:
tools.media.audio - Standard-Base-URL für Groq-Audio:
https://api.groq.com/openai/v1 - Standard-Audiomodell für Groq:
whisper-large-v3-turbo - Die Audiotranskription von Groq verwendet den OpenAI-kompatiblen Pfad
/audio/transcriptions
Verfügbare Modelle
Der Modellkatalog von Groq ändert sich häufig. Führen Sieopenclaw models list | grep groq
aus, um die aktuell verfügbaren Modelle zu sehen, oder prüfen Sie
console.groq.com/docs/models.
Beliebte Optionen sind:
- Llama 3.3 70B Versatile - universell einsetzbar, großer Kontext
- Llama 3.1 8B Instant - schnell, leichtgewichtig
- Gemma 2 9B - kompakt, effizient
- Mixtral 8x7B - MoE-Architektur, starke Reasoning-Fähigkeiten