Vai al contenuto principale

Arcee AI

Arcee AI fornisce accesso alla famiglia Trinity di modelli mixture-of-experts tramite un’API compatibile con OpenAI. Tutti i modelli Trinity sono concessi in licenza Apache 2.0. I modelli Arcee AI possono essere accessibili direttamente tramite la piattaforma Arcee o tramite OpenRouter.
  • Provider: arcee
  • Auth: ARCEEAI_API_KEY (diretto) oppure OPENROUTER_API_KEY (tramite OpenRouter)
  • API: compatibile con OpenAI
  • URL di base: https://api.arcee.ai/api/v1 (diretto) oppure https://openrouter.ai/api/v1 (OpenRouter)

Avvio rapido

  1. Ottieni una chiave API da Arcee AI o OpenRouter.
  2. Imposta la chiave API (consigliato: memorizzarla per il Gateway):
# Diretto (piattaforma Arcee)
openclaw onboard --auth-choice arceeai-api-key

# Tramite OpenRouter
openclaw onboard --auth-choice arceeai-openrouter
  1. Imposta un modello predefinito:
{
  agents: {
    defaults: {
      model: { primary: "arcee/trinity-large-thinking" },
    },
  },
}

Esempio non interattivo

# Diretto (piattaforma Arcee)
openclaw onboard --non-interactive \
  --mode local \
  --auth-choice arceeai-api-key \
  --arceeai-api-key "$ARCEEAI_API_KEY"

# Tramite OpenRouter
openclaw onboard --non-interactive \
  --mode local \
  --auth-choice arceeai-openrouter \
  --openrouter-api-key "$OPENROUTER_API_KEY"

Nota sull’ambiente

Se il Gateway è in esecuzione come daemon (launchd/systemd), assicurati che ARCEEAI_API_KEY (o OPENROUTER_API_KEY) sia disponibile per quel processo (ad esempio in ~/.openclaw/.env o tramite env.shellEnv).

Catalogo incluso

OpenClaw attualmente include questo catalogo Arcee integrato:
Model refNomeInputContestoCosto (in/out per 1M)Note
arcee/trinity-large-thinkingTrinity Large Thinkingtext256K0.25/0.25 / 0.90Modello predefinito; reasoning abilitato
arcee/trinity-large-previewTrinity Large Previewtext128K0.25/0.25 / 1.00Uso generale; 400B parametri, 13B attivi
arcee/trinity-miniTrinity Mini 26Btext128K0.045/0.045 / 0.15Veloce ed economico; function calling
Gli stessi model ref funzionano sia per la configurazione diretta sia per quella tramite OpenRouter (ad esempio arcee/trinity-large-thinking). Il preset di onboarding imposta arcee/trinity-large-thinking come modello predefinito.

Funzionalità supportate

  • Streaming
  • Utilizzo di strumenti / function calling
  • Output strutturato (modalità JSON e schema JSON)
  • Thinking esteso (Trinity Large Thinking)