Pular para o conteúdo principal

Groq

Groq oferece inferência ultrarrápida em modelos de código aberto (Llama, Gemma, Mistral e outros) usando hardware LPU personalizado. O OpenClaw se conecta ao Groq por meio de sua API compatível com OpenAI.
  • Provedor: groq
  • Autenticação: GROQ_API_KEY
  • API: compatível com OpenAI

Início rápido

  1. Obtenha uma chave de API em console.groq.com/keys.
  2. Defina a chave de API:
export GROQ_API_KEY="gsk_..."
  1. Defina um modelo padrão:
{
  agents: {
    defaults: {
      model: { primary: "groq/llama-3.3-70b-versatile" },
    },
  },
}

Exemplo de arquivo de configuração

{
  env: { GROQ_API_KEY: "gsk_..." },
  agents: {
    defaults: {
      model: { primary: "groq/llama-3.3-70b-versatile" },
    },
  },
}

Transcrição de áudio

O Groq também oferece transcrição rápida de áudio baseada em Whisper. Quando configurado como um provedor de entendimento de mídia, o OpenClaw usa o modelo whisper-large-v3-turbo do Groq para transcrever mensagens de voz por meio da superfície compartilhada tools.media.audio.
{
  tools: {
    media: {
      audio: {
        models: [{ provider: "groq" }],
      },
    },
  },
}

Observação sobre o ambiente

Se o Gateway estiver em execução como daemon (launchd/systemd), certifique-se de que GROQ_API_KEY esteja disponível para esse processo (por exemplo, em ~/.openclaw/.env ou via env.shellEnv).

Observações sobre áudio

  • Caminho de configuração compartilhado: tools.media.audio
  • URL base padrão de áudio do Groq: https://api.groq.com/openai/v1
  • Modelo de áudio padrão do Groq: whisper-large-v3-turbo
  • A transcrição de áudio do Groq usa o caminho compatível com OpenAI /audio/transcriptions

Modelos disponíveis

O catálogo de modelos do Groq muda com frequência. Execute openclaw models list | grep groq para ver os modelos atualmente disponíveis, ou consulte console.groq.com/docs/models. As opções populares incluem:
  • Llama 3.3 70B Versatile - uso geral, contexto amplo
  • Llama 3.1 8B Instant - rápido, leve
  • Gemma 2 9B - compacto, eficiente
  • Mixtral 8x7B - arquitetura MoE, raciocínio sólido