跳轉到主要內容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Arcee AI 透過 OpenAI 相容 API 提供 Trinity 系列的 mixture-of-experts 模型存取。所有 Trinity 模型皆採 Apache 2.0 授權。 Arcee AI 模型可以直接透過 Arcee 平台存取,也可以透過 OpenRouter 存取。
屬性
提供者arcee
認證ARCEEAI_API_KEY(直接)或 OPENROUTER_API_KEY(透過 OpenRouter)
APIOpenAI 相容
基底 URLhttps://api.arcee.ai/api/v1(直接)或 https://openrouter.ai/api/v1(OpenRouter)

開始使用

1

取得 API 金鑰

Arcee AI 建立 API 金鑰。
2

執行 onboarding

openclaw onboard --auth-choice arceeai-api-key
3

設定預設模型

{
  agents: {
    defaults: {
      model: { primary: "arcee/trinity-large-thinking" },
    },
  },
}

非互動式設定

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice arceeai-api-key \
  --arceeai-api-key "$ARCEEAI_API_KEY"

內建目錄

OpenClaw 目前隨附此 Arcee 目錄:
模型 ref名稱輸入Context成本(每 100 萬輸入/輸出)備註
arcee/trinity-large-thinkingTrinity Large Thinking文字256K0.25/0.25 / 0.90預設模型;已啟用推理
arcee/trinity-large-previewTrinity Large Preview文字128K0.25/0.25 / 1.00通用;400B 參數,13B active
arcee/trinity-miniTrinity Mini 26B文字128K0.045/0.045 / 0.15快速且成本效益高;函式呼叫
onboarding 預設集會將 arcee/trinity-large-thinking 設為預設模型。

支援的功能

功能支援
Streaming
工具使用 / 函式呼叫
結構化輸出(JSON 模式與 JSON schema)
Extended thinking是(Trinity Large Thinking)
如果 Gateway 以 daemon(launchd/systemd)執行,請確保 ARCEEAI_API_KEY (或 OPENROUTER_API_KEY)可供該程序使用(例如放在 ~/.openclaw/.env,或透過 env.shellEnv)。
透過 OpenRouter 使用 Arcee 模型時,適用相同的 arcee/* 模型 ref。 OpenClaw 會根據你的認證選擇透明地處理路由。請參閱 OpenRouter 提供者文件,了解 OpenRouter 專屬的 設定詳細資訊。

相關

OpenRouter

透過單一 API 金鑰存取 Arcee 模型和許多其他模型。

模型選擇

選擇提供者、模型 ref 與容錯移轉行為。