Cerebras bietet schnelle OpenAI-kompatible Inferenz.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
| Eigenschaft | Wert |
|---|---|
| Provider | cerebras |
| Auth | CEREBRAS_API_KEY |
| API | OpenAI-kompatibel |
| Basis-URL | https://api.cerebras.ai/v1 |
Erste Schritte
API-Schlüssel abrufen
Erstellen Sie einen API-Schlüssel in der Cerebras Cloud Console.
Nicht interaktive Einrichtung
Integrierter Katalog
OpenClaw liefert einen statischen Cerebras-Katalog für den öffentlichen OpenAI-kompatiblen Endpunkt mit:| Modellreferenz | Name | Hinweise |
|---|---|---|
cerebras/zai-glm-4.7 | Z.ai GLM 4.7 | Standardmodell; Reasoning-Vorschaumodell |
cerebras/gpt-oss-120b | GPT OSS 120B | Reasoning-Modell für die Produktion |
cerebras/qwen-3-235b-a22b-instruct-2507 | Qwen 3 235B Instruct | Nicht-Reasoning-Vorschaumodell |
cerebras/llama3.1-8b | Llama 3.1 8B | Produktionsmodell mit Fokus auf Geschwindigkeit |
Manuelle Konfiguration
Das gebündelte Plugin bedeutet in der Regel, dass Sie nur den API-Schlüssel benötigen. Verwenden Sie eine explizitemodels.providers.cerebras-Konfiguration, wenn Sie Modellmetadaten überschreiben möchten:
Wenn der Gateway als Daemon ausgeführt wird (launchd/systemd), stellen Sie sicher, dass
CEREBRAS_API_KEY
für diesen Prozess verfügbar ist, zum Beispiel in ~/.openclaw/.env oder über
env.shellEnv.