Zum Hauptinhalt springen

Synthetic

Synthetic stellt Anthropic-kompatible Endpunkte bereit. OpenClaw registriert es als Provider synthetic und verwendet die Anthropic Messages API.

Schnelleinrichtung

  1. Setzen Sie SYNTHETIC_API_KEY (oder führen Sie den untenstehenden Assistenten aus).
  2. Führen Sie das Onboarding aus:
openclaw onboard --auth-choice synthetic-api-key
Das Standardmodell wird gesetzt auf:
synthetic/hf:MiniMaxAI/MiniMax-M2.5

Konfigurationsbeispiel

{
  env: { SYNTHETIC_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" },
      models: { "synthetic/hf:MiniMaxAI/MiniMax-M2.5": { alias: "MiniMax M2.5" } },
    },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [
          {
            id: "hf:MiniMaxAI/MiniMax-M2.5",
            name: "MiniMax M2.5",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 192000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}
Hinweis: Der Anthropic-Client von OpenClaw hängt /v1 an die Basis-URL an, daher verwenden Sie https://api.synthetic.new/anthropic (nicht /anthropic/v1). Wenn Synthetic seine Basis-URL ändert, überschreiben Sie models.providers.synthetic.baseUrl.

Modellkatalog

Alle untenstehenden Modelle verwenden Kosten von 0 (Eingabe/Ausgabe/Cache).
Modell-IDKontextfensterMax. TokensReasoningEingabe
hf:MiniMaxAI/MiniMax-M2.519200065536falsetext
hf:moonshotai/Kimi-K2-Thinking2560008192truetext
hf:zai-org/GLM-4.7198000128000falsetext
hf:deepseek-ai/DeepSeek-R1-05281280008192falsetext
hf:deepseek-ai/DeepSeek-V3-03241280008192falsetext
hf:deepseek-ai/DeepSeek-V3.11280008192falsetext
hf:deepseek-ai/DeepSeek-V3.1-Terminus1280008192falsetext
hf:deepseek-ai/DeepSeek-V3.21590008192falsetext
hf:meta-llama/Llama-3.3-70B-Instruct1280008192falsetext
hf:meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP85240008192falsetext
hf:moonshotai/Kimi-K2-Instruct-09052560008192falsetext
hf:moonshotai/Kimi-K2.52560008192truetext + image
hf:openai/gpt-oss-120b1280008192falsetext
hf:Qwen/Qwen3-235B-A22B-Instruct-25072560008192falsetext
hf:Qwen/Qwen3-Coder-480B-A35B-Instruct2560008192falsetext
hf:Qwen/Qwen3-VL-235B-A22B-Instruct2500008192falsetext + image
hf:zai-org/GLM-4.5128000128000falsetext
hf:zai-org/GLM-4.6198000128000falsetext
hf:zai-org/GLM-5256000128000truetext + image
hf:deepseek-ai/DeepSeek-V31280008192falsetext
hf:Qwen/Qwen3-235B-A22B-Thinking-25072560008192truetext

Hinweise

  • Modellreferenzen verwenden synthetic/<modelId>.
  • Wenn Sie eine Modell-Allowlist aktivieren (agents.defaults.models), fügen Sie jedes Modell hinzu, das Sie verwenden möchten.
  • Siehe Modell-Provider für Provider-Regeln.