Przejdź do głównej treści

Groq

Groq zapewnia ultraszybką inferencję na modelach open-source (Llama, Gemma, Mistral i innych) przy użyciu własnego sprzętu LPU. OpenClaw łączy się z Groq przez jego API zgodne z OpenAI.
  • Dostawca: groq
  • Auth: GROQ_API_KEY
  • API: zgodne z OpenAI

Szybki start

  1. Pobierz klucz API z console.groq.com/keys.
  2. Ustaw klucz API:
export GROQ_API_KEY="gsk_..."
  1. Ustaw model domyślny:
{
  agents: {
    defaults: {
      model: { primary: "groq/llama-3.3-70b-versatile" },
    },
  },
}

Przykład pliku konfiguracyjnego

{
  env: { GROQ_API_KEY: "gsk_..." },
  agents: {
    defaults: {
      model: { primary: "groq/llama-3.3-70b-versatile" },
    },
  },
}

Transkrypcja audio

Groq zapewnia także szybką transkrypcję audio opartą na Whisper. Gdy jest skonfigurowany jako dostawca media-understanding, OpenClaw używa modelu whisper-large-v3-turbo Groq do transkrypcji wiadomości głosowych przez współdzieloną powierzchnię tools.media.audio.
{
  tools: {
    media: {
      audio: {
        models: [{ provider: "groq" }],
      },
    },
  },
}

Uwaga dotycząca środowiska

Jeśli Gateway działa jako daemon (launchd/systemd), upewnij się, że GROQ_API_KEY jest dostępne dla tego procesu (na przykład w ~/.openclaw/.env albo przez env.shellEnv).

Uwagi o audio

  • Współdzielona ścieżka konfiguracji: tools.media.audio
  • Domyślny podstawowy URL audio Groq: https://api.groq.com/openai/v1
  • Domyślny model audio Groq: whisper-large-v3-turbo
  • Transkrypcja audio Groq używa zgodnej z OpenAI ścieżki /audio/transcriptions

Dostępne modele

Katalog modeli Groq często się zmienia. Uruchom openclaw models list | grep groq, aby zobaczyć aktualnie dostępne modele, albo sprawdź console.groq.com/docs/models. Popularne opcje obejmują:
  • Llama 3.3 70B Versatile - ogólnego przeznaczenia, duży kontekst
  • Llama 3.1 8B Instant - szybki, lekki
  • Gemma 2 9B - kompaktowy, wydajny
  • Mixtral 8x7B - architektura MoE, mocne reasoning

Linki