Arcee AI
Arcee AI bietet Zugriff auf die Trinity-Familie von Mixture-of-Experts-Modellen über eine OpenAI-kompatible API. Alle Trinity-Modelle sind unter Apache 2.0 lizenziert. Auf Arcee-AI-Modelle kann direkt über die Arcee-Plattform oder über OpenRouter zugegriffen werden.- Anbieter:
arcee - Auth:
ARCEEAI_API_KEY(direkt) oderOPENROUTER_API_KEY(über OpenRouter) - API: OpenAI-kompatibel
- Basis-URL:
https://api.arcee.ai/api/v1(direkt) oderhttps://openrouter.ai/api/v1(OpenRouter)
Schnellstart
- Holen Sie sich einen API-Schlüssel von Arcee AI oder OpenRouter.
- Setzen Sie den API-Schlüssel (empfohlen: für das Gateway speichern):
- Legen Sie ein Standardmodell fest:
Nicht interaktives Beispiel
Hinweis zur Umgebung
Wenn das Gateway als Daemon ausgeführt wird (launchd/systemd), stellen Sie sicher, dass ARCEEAI_API_KEY
(oder OPENROUTER_API_KEY) diesem Prozess zur Verfügung steht (zum Beispiel in
~/.openclaw/.env oder über env.shellEnv).
Integrierter Katalog
OpenClaw liefert derzeit diesen gebündelten Arcee-Katalog aus:| Modellreferenz | Name | Eingabe | Kontext | Kosten (ein/aus pro 1 Mio.) | Hinweise |
|---|---|---|---|---|---|
arcee/trinity-large-thinking | Trinity Large Thinking | text | 256K | 0.90 | Standardmodell; Reasoning aktiviert |
arcee/trinity-large-preview | Trinity Large Preview | text | 128K | 1.00 | Allgemeiner Einsatzzweck; 400B Parameter, 13B aktiv |
arcee/trinity-mini | Trinity Mini 26B | text | 128K | 0.15 | Schnell und kosteneffizient; Function Calling |
arcee/trinity-large-thinking).
Die Onboarding-Voreinstellung setzt arcee/trinity-large-thinking als Standardmodell.
Unterstützte Funktionen
- Streaming
- Tool-Verwendung / Function Calling
- Strukturierte Ausgabe (JSON-Modus und JSON-Schema)
- Erweitertes Thinking (Trinity Large Thinking)