Cerebras fournit une inférence à haut débit compatible avec OpenAI.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
| Propriété | Valeur |
|---|---|
| Fournisseur | cerebras |
| Authentification | CEREBRAS_API_KEY |
| API | Compatible avec OpenAI |
| URL de base | https://api.cerebras.ai/v1 |
Démarrage
Obtenir une clé API
Créez une clé API dans la console Cerebras Cloud.
Configuration non interactive
Catalogue intégré
OpenClaw fournit un catalogue Cerebras statique pour le point de terminaison public compatible avec OpenAI :| Référence de modèle | Nom | Notes |
|---|---|---|
cerebras/zai-glm-4.7 | Z.ai GLM 4.7 | Modèle par défaut ; modèle de raisonnement en préversion |
cerebras/gpt-oss-120b | GPT OSS 120B | Modèle de raisonnement de production |
cerebras/qwen-3-235b-a22b-instruct-2507 | Qwen 3 235B Instruct | Modèle sans raisonnement en préversion |
cerebras/llama3.1-8b | Llama 3.1 8B | Modèle de production axé sur la vitesse |
Configuration manuelle
Le Plugin fourni signifie généralement que vous n’avez besoin que de la clé API. Utilisez la configuration explicitemodels.providers.cerebras lorsque vous souhaitez remplacer les métadonnées des modèles :
Si le Gateway s’exécute en tant que démon (launchd/systemd), assurez-vous que
CEREBRAS_API_KEY
est disponible pour ce processus, par exemple dans ~/.openclaw/.env ou via
env.shellEnv.