Arcee AI
Arcee AI は、OpenAI互換APIを通じてTrinityファミリーのmixture-of-experts modelへのアクセスを提供します。すべてのTrinity modelはApache 2.0ライセンスです。 Arcee AI modelsは、Arcee platformから直接、または OpenRouter 経由で利用できます。- Provider:
arcee - Auth:
ARCEEAI_API_KEY(直接)またはOPENROUTER_API_KEY(OpenRouter経由) - API: OpenAI互換
- Base URL:
https://api.arcee.ai/api/v1(直接)またはhttps://openrouter.ai/api/v1(OpenRouter)
クイックスタート
- Arcee AI または OpenRouter でAPI keyを取得します。
- API keyを設定します(推奨: Gateway用に保存):
- デフォルトmodelを設定します:
非対話の例
環境に関する注意
Gatewayがdaemon(launchd/systemd)として動作している場合は、ARCEEAI_API_KEY
(または OPENROUTER_API_KEY)がそのプロセスから利用できることを確認してください(たとえば
~/.openclaw/.env または env.shellEnv 経由)。
組み込みカタログ
OpenClawには現在、このバンドル済みArcee catalogが含まれています:| Model ref | Name | Input | Context | Cost (in/out per 1M) | Notes |
|---|---|---|---|---|---|
arcee/trinity-large-thinking | Trinity Large Thinking | text | 256K | 0.90 | デフォルトmodel; reasoning有効 |
arcee/trinity-large-preview | Trinity Large Preview | text | 128K | 1.00 | 汎用; 400B params、13B active |
arcee/trinity-mini | Trinity Mini 26B | text | 128K | 0.15 | 高速でコスト効率が高い; function calling |
arcee/trinity-large-thinking)。
オンボーディングpresetは、arcee/trinity-large-thinking をデフォルトmodelとして設定します。
サポートされる機能
- Streaming
- Tool use / function calling
- Structured output(JSON modeおよびJSON schema)
- Extended thinking(Trinity Large Thinking)