Arcee AI
Arcee AI fournit un accès à la famille Trinity de modèles mixture-of-experts via une API compatible OpenAI. Tous les modèles Trinity sont sous licence Apache 2.0. Les modèles Arcee AI sont accessibles directement via la plateforme Arcee ou via OpenRouter.- Fournisseur :
arcee - Authentification :
ARCEEAI_API_KEY(direct) ouOPENROUTER_API_KEY(via OpenRouter) - API : compatible OpenAI
- URL de base :
https://api.arcee.ai/api/v1(direct) ouhttps://openrouter.ai/api/v1(OpenRouter)
Démarrage rapide
- Obtenez une clé API depuis Arcee AI ou OpenRouter.
- Définissez la clé API (recommandé : la stocker pour la Gateway) :
- Définissez un modèle par défaut :
Exemple non interactif
Remarque sur l’environnement
Si la Gateway s’exécute comme démon (launchd/systemd), assurez-vous queARCEEAI_API_KEY
(ou OPENROUTER_API_KEY) est disponible pour ce processus (par exemple, dans
~/.openclaw/.env ou via env.shellEnv).
Catalogue intégré
OpenClaw inclut actuellement ce catalogue Arcee intégré :| Model ref | Nom | Entrée | Contexte | Coût (entrée/sortie par 1M) | Notes |
|---|---|---|---|---|---|
arcee/trinity-large-thinking | Trinity Large Thinking | text | 256K | 0.90 | Modèle par défaut ; raisonnement activé |
arcee/trinity-large-preview | Trinity Large Preview | text | 128K | 1.00 | Usage général ; 400B de paramètres, 13B actifs |
arcee/trinity-mini | Trinity Mini 26B | text | 128K | 0.15 | Rapide et économique ; function calling |
arcee/trinity-large-thinking).
Le preset d’onboarding définit arcee/trinity-large-thinking comme modèle par défaut.
Fonctionnalités prises en charge
- Streaming
- Utilisation d’outils / function calling
- Sortie structurée (mode JSON et schéma JSON)
- Réflexion étendue (Trinity Large Thinking)