Groq
Groq zapewnia ultraszybką inferencję na modelach open-source (Llama, Gemma, Mistral i innych) przy użyciu własnego sprzętu LPU. OpenClaw łączy się z Groq przez jego API zgodne z OpenAI.- Dostawca:
groq - Auth:
GROQ_API_KEY - API: zgodne z OpenAI
Szybki start
- Pobierz klucz API z console.groq.com/keys.
- Ustaw klucz API:
- Ustaw model domyślny:
Przykład pliku konfiguracyjnego
Transkrypcja audio
Groq zapewnia także szybką transkrypcję audio opartą na Whisper. Gdy jest skonfigurowany jako dostawca media-understanding, OpenClaw używa modeluwhisper-large-v3-turbo Groq
do transkrypcji wiadomości głosowych przez współdzieloną powierzchnię tools.media.audio.
Uwaga dotycząca środowiska
Jeśli Gateway działa jako daemon (launchd/systemd), upewnij się, żeGROQ_API_KEY
jest dostępne dla tego procesu (na przykład w ~/.openclaw/.env albo przez
env.shellEnv).
Uwagi o audio
- Współdzielona ścieżka konfiguracji:
tools.media.audio - Domyślny podstawowy URL audio Groq:
https://api.groq.com/openai/v1 - Domyślny model audio Groq:
whisper-large-v3-turbo - Transkrypcja audio Groq używa zgodnej z OpenAI ścieżki
/audio/transcriptions
Dostępne modele
Katalog modeli Groq często się zmienia. Uruchomopenclaw models list | grep groq,
aby zobaczyć aktualnie dostępne modele, albo sprawdź
console.groq.com/docs/models.
Popularne opcje obejmują:
- Llama 3.3 70B Versatile - ogólnego przeznaczenia, duży kontekst
- Llama 3.1 8B Instant - szybki, lekki
- Gemma 2 9B - kompaktowy, wydajny
- Mixtral 8x7B - architektura MoE, mocne reasoning