Groq
Groq oferece inferência ultrarrápida em modelos de código aberto (Llama, Gemma, Mistral e outros) usando hardware LPU personalizado. O OpenClaw se conecta ao Groq por meio de sua API compatível com OpenAI.- Provedor:
groq - Autenticação:
GROQ_API_KEY - API: compatível com OpenAI
Início rápido
- Obtenha uma chave de API em console.groq.com/keys.
- Defina a chave de API:
- Defina um modelo padrão:
Exemplo de arquivo de configuração
Transcrição de áudio
O Groq também oferece transcrição rápida de áudio baseada em Whisper. Quando configurado como um provedor de entendimento de mídia, o OpenClaw usa o modelowhisper-large-v3-turbo do Groq
para transcrever mensagens de voz por meio da superfície compartilhada tools.media.audio.
Observação sobre o ambiente
Se o Gateway estiver em execução como daemon (launchd/systemd), certifique-se de queGROQ_API_KEY
esteja disponível para esse processo (por exemplo, em ~/.openclaw/.env ou via
env.shellEnv).
Observações sobre áudio
- Caminho de configuração compartilhado:
tools.media.audio - URL base padrão de áudio do Groq:
https://api.groq.com/openai/v1 - Modelo de áudio padrão do Groq:
whisper-large-v3-turbo - A transcrição de áudio do Groq usa o caminho compatível com OpenAI
/audio/transcriptions
Modelos disponíveis
O catálogo de modelos do Groq muda com frequência. Executeopenclaw models list | grep groq
para ver os modelos atualmente disponíveis, ou consulte
console.groq.com/docs/models.
As opções populares incluem:
- Llama 3.3 70B Versatile - uso geral, contexto amplo
- Llama 3.1 8B Instant - rápido, leve
- Gemma 2 9B - compacto, eficiente
- Mixtral 8x7B - arquitetura MoE, raciocínio sólido