Arcee AI
Arcee AI zapewnia dostęp do rodziny modeli Trinity typu mixture-of-experts przez API zgodne z OpenAI. Wszystkie modele Trinity są licencjonowane na Apache 2.0. Dostęp do modeli Arcee AI można uzyskać bezpośrednio przez platformę Arcee lub przez OpenRouter.- Provider:
arcee - Uwierzytelnianie:
ARCEEAI_API_KEY(bezpośrednio) lubOPENROUTER_API_KEY(przez OpenRouter) - API: zgodne z OpenAI
- Base URL:
https://api.arcee.ai/api/v1(bezpośrednio) lubhttps://openrouter.ai/api/v1(OpenRouter)
Szybki start
- Pobierz klucz API z Arcee AI lub OpenRouter.
- Ustaw klucz API (zalecane: zapisz go dla Gateway):
- Ustaw model domyślny:
Przykład nieinteraktywny
Uwaga dotycząca środowiska
Jeśli Gateway działa jako daemon (launchd/systemd), upewnij się, że ARCEEAI_API_KEY
(lub OPENROUTER_API_KEY) jest dostępne dla tego procesu (na przykład w
~/.openclaw/.env lub przez env.shellEnv).
Wbudowany katalog
OpenClaw obecnie dostarcza ten dołączony katalog Arcee:| Model ref | Nazwa | Wejście | Kontekst | Koszt (wej./wyj. na 1M) | Uwagi |
|---|---|---|---|---|---|
arcee/trinity-large-thinking | Trinity Large Thinking | text | 256K | 0.90 | Model domyślny; reasoning włączone |
arcee/trinity-large-preview | Trinity Large Preview | text | 128K | 1.00 | Ogólnego przeznaczenia; 400B parametrów, 13B aktywnych |
arcee/trinity-mini | Trinity Mini 26B | text | 128K | 0.15 | Szybki i oszczędny kosztowo; function calling |
arcee/trinity-large-thinking).
Preset onboardingu ustawia arcee/trinity-large-thinking jako model domyślny.
Obsługiwane funkcje
- Streaming
- Użycie narzędzi / function calling
- Structured output (tryb JSON i schemat JSON)
- Extended thinking (Trinity Large Thinking)