Zum Hauptinhalt springen

Arcee AI

Arcee AI bietet Zugriff auf die Trinity-Familie von Mixture-of-Experts-Modellen über eine OpenAI-kompatible API. Alle Trinity-Modelle sind unter Apache 2.0 lizenziert. Auf Arcee-AI-Modelle kann direkt über die Arcee-Plattform oder über OpenRouter zugegriffen werden.
  • Anbieter: arcee
  • Auth: ARCEEAI_API_KEY (direkt) oder OPENROUTER_API_KEY (über OpenRouter)
  • API: OpenAI-kompatibel
  • Basis-URL: https://api.arcee.ai/api/v1 (direkt) oder https://openrouter.ai/api/v1 (OpenRouter)

Schnellstart

  1. Holen Sie sich einen API-Schlüssel von Arcee AI oder OpenRouter.
  2. Setzen Sie den API-Schlüssel (empfohlen: für das Gateway speichern):
# Direkt (Arcee-Plattform)
openclaw onboard --auth-choice arceeai-api-key

# Über OpenRouter
openclaw onboard --auth-choice arceeai-openrouter
  1. Legen Sie ein Standardmodell fest:
{
  agents: {
    defaults: {
      model: { primary: "arcee/trinity-large-thinking" },
    },
  },
}

Nicht interaktives Beispiel

# Direkt (Arcee-Plattform)
openclaw onboard --non-interactive \
  --mode local \
  --auth-choice arceeai-api-key \
  --arceeai-api-key "$ARCEEAI_API_KEY"

# Über OpenRouter
openclaw onboard --non-interactive \
  --mode local \
  --auth-choice arceeai-openrouter \
  --openrouter-api-key "$OPENROUTER_API_KEY"

Hinweis zur Umgebung

Wenn das Gateway als Daemon ausgeführt wird (launchd/systemd), stellen Sie sicher, dass ARCEEAI_API_KEY (oder OPENROUTER_API_KEY) diesem Prozess zur Verfügung steht (zum Beispiel in ~/.openclaw/.env oder über env.shellEnv).

Integrierter Katalog

OpenClaw liefert derzeit diesen gebündelten Arcee-Katalog aus:
ModellreferenzNameEingabeKontextKosten (ein/aus pro 1 Mio.)Hinweise
arcee/trinity-large-thinkingTrinity Large Thinkingtext256K0.25/0.25 / 0.90Standardmodell; Reasoning aktiviert
arcee/trinity-large-previewTrinity Large Previewtext128K0.25/0.25 / 1.00Allgemeiner Einsatzzweck; 400B Parameter, 13B aktiv
arcee/trinity-miniTrinity Mini 26Btext128K0.045/0.045 / 0.15Schnell und kosteneffizient; Function Calling
Dieselben Modellreferenzen funktionieren sowohl für direkte als auch für OpenRouter-Einrichtungen (zum Beispiel arcee/trinity-large-thinking). Die Onboarding-Voreinstellung setzt arcee/trinity-large-thinking als Standardmodell.

Unterstützte Funktionen

  • Streaming
  • Tool-Verwendung / Function Calling
  • Strukturierte Ausgabe (JSON-Modus und JSON-Schema)
  • Erweitertes Thinking (Trinity Large Thinking)