Arcee AI
Arcee AI는 OpenAI 호환 API를 통해 Trinity 계열 mixture-of-experts 모델에 대한 액세스를 제공합니다. 모든 Trinity 모델은 Apache 2.0 라이선스를 사용합니다. Arcee AI 모델은 Arcee 플랫폼에서 직접 또는 OpenRouter를 통해 액세스할 수 있습니다.- Provider:
arcee - 인증:
ARCEEAI_API_KEY(직접) 또는OPENROUTER_API_KEY(OpenRouter 경유) - API: OpenAI 호환
- Base URL:
https://api.arcee.ai/api/v1(직접) 또는https://openrouter.ai/api/v1(OpenRouter)
빠른 시작
- Arcee AI 또는 OpenRouter에서 API 키를 받습니다.
- API 키를 설정합니다(권장: Gateway용으로 저장):
- 기본 모델을 설정합니다:
비대화형 예시
환경 참고
Gateway가 데몬(launchd/systemd)으로 실행되는 경우,ARCEEAI_API_KEY
(또는 OPENROUTER_API_KEY)를 해당 프로세스에서 사용할 수 있어야 합니다(예:
~/.openclaw/.env 또는 env.shellEnv).
내장 카탈로그
OpenClaw는 현재 다음 번들 Arcee 카탈로그를 제공합니다:| Model ref | 이름 | 입력 | 컨텍스트 | 비용(입력/출력, 100만당) | 참고 |
|---|---|---|---|---|---|
arcee/trinity-large-thinking | Trinity Large Thinking | text | 256K | 0.90 | 기본 모델; reasoning 활성화됨 |
arcee/trinity-large-preview | Trinity Large Preview | text | 128K | 1.00 | 범용; 400B params, 13B active |
arcee/trinity-mini | Trinity Mini 26B | text | 128K | 0.15 | 빠르고 비용 효율적임; function calling 지원 |
arcee/trinity-large-thinking).
온보딩 프리셋은 arcee/trinity-large-thinking을 기본 모델로 설정합니다.
지원 기능
- 스트리밍
- 도구 사용 / function calling
- 구조화된 출력(JSON mode 및 JSON schema)
- 확장 thinking(Trinity Large Thinking)