Groq
Groq は、カスタム LPU ハードウェアを使用して、オープンソースモデル (Llama、Gemma、Mistral など)で超高速推論を提供します。OpenClaw は OpenAI 互換 API を通じて Groq に接続します。- Provider:
groq - Auth:
GROQ_API_KEY - API: OpenAI 互換
クイックスタート
- console.groq.com/keys から API キーを取得します。
- API キーを設定します:
- デフォルトモデルを設定します:
設定ファイルの例
音声文字起こし
Groq は、高速な Whisper ベースの音声文字起こしも提供しています。 media-understanding provider として設定されている場合、 OpenClaw は共有のtools.media.audio
surface を通じて、Groq の whisper-large-v3-turbo
モデルを使って音声メッセージを文字起こしします。
環境に関する注意
Gateway が daemon(launchd / systemd)として実行される場合は、GROQ_API_KEY が
そのプロセスから利用可能であることを確認してください(たとえば ~/.openclaw/.env または
env.shellEnv 経由)。
音声に関する注記
- 共有設定パス:
tools.media.audio - デフォルトの Groq 音声 base URL:
https://api.groq.com/openai/v1 - デフォルトの Groq 音声モデル:
whisper-large-v3-turbo - Groq の音声文字起こしは、OpenAI 互換の
/audio/transcriptionsパスを使用します
利用可能なモデル
Groq のモデルカタログは頻繁に変わります。現在利用可能なモデルを確認するにはopenclaw models list | grep groq
を実行するか、
console.groq.com/docs/models を確認してください。
よく使われる選択肢には、次のものがあります。
- Llama 3.3 70B Versatile - 汎用、大きなコンテキスト
- Llama 3.1 8B Instant - 高速、軽量
- Gemma 2 9B - コンパクトで効率的
- Mixtral 8x7B - MoE アーキテクチャ、強い推論性能