Passer au contenu principal

Proxy API Claude Max

claude-max-api-proxy est un outil communautaire qui expose votre abonnement Claude Max/Pro comme un point de terminaison API compatible OpenAI. Cela vous permet d’utiliser votre abonnement avec n’importe quel outil prenant en charge le format d’API OpenAI.
Cette voie est uniquement une compatibilité technique. Anthropic a déjà bloqué certains usages d’abonnement en dehors de Claude Code par le passé. Vous devez décider vous-même si vous souhaitez l’utiliser et vérifier les conditions actuelles d’Anthropic avant de vous y fier.

Pourquoi utiliser cela ?

ApprocheCoûtIdéal pour
API AnthropicPaiement au token (~15 /Menentreˊe,75/M en entrée, 75 /M en sortie pour Opus)Applications de production, volume élevé
Abonnement Claude Max200 $/mois fixeUsage personnel, développement, usage illimité
Si vous avez un abonnement Claude Max et souhaitez l’utiliser avec des outils compatibles OpenAI, ce proxy peut réduire le coût pour certains workflows. Les clés API restent la voie de politique la plus claire pour un usage en production.

Comment cela fonctionne

Votre application → claude-max-api-proxy → CLI Claude Code → Anthropic (via abonnement)
   (format OpenAI)                 (convertit le format)      (utilise votre connexion)
Le proxy :
  1. Accepte les requêtes au format OpenAI sur http://localhost:3456/v1/chat/completions
  2. Les convertit en commandes de la CLI Claude Code
  3. Renvoie les réponses au format OpenAI (streaming pris en charge)

Prise en main

1

Installer le proxy

Nécessite Node.js 20+ et la CLI Claude Code.
npm install -g claude-max-api-proxy

# Vérifier que la CLI Claude est authentifiée
claude --version
2

Démarrer le serveur

claude-max-api
# Le serveur s’exécute sur http://localhost:3456
3

Tester le proxy

# Vérification d’état
curl http://localhost:3456/health

# Lister les modèles
curl http://localhost:3456/v1/models

# Complétion de chat
curl http://localhost:3456/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-opus-4",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'
4

Configurer OpenClaw

Pointez OpenClaw vers le proxy comme point de terminaison personnalisé compatible OpenAI :
{
  env: {
    OPENAI_API_KEY: "not-needed",
    OPENAI_BASE_URL: "http://localhost:3456/v1",
  },
  agents: {
    defaults: {
      model: { primary: "openai/claude-opus-4" },
    },
  },
}

Modèles disponibles

ID du modèleCorrespond à
claude-opus-4Claude Opus 4
claude-sonnet-4Claude Sonnet 4
claude-haiku-4Claude Haiku 4

Avancé

Cette voie utilise la même route de type proxy compatible OpenAI que les autres backends personnalisés /v1 :
  • La mise en forme des requêtes native OpenAI uniquement ne s’applique pas
  • Pas de service_tier, pas de store Responses, pas d’indices de cache d’invite, ni de mise en forme de charge utile de compatibilité de raisonnement OpenAI
  • Les en-têtes d’attribution OpenClaw cachés (originator, version, User-Agent) ne sont pas injectés sur l’URL du proxy
Créez un LaunchAgent pour exécuter automatiquement le proxy :
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
  <key>Label</key>
  <string>com.claude-max-api</string>
  <key>RunAtLoad</key>
  <true/>
  <key>KeepAlive</key>
  <true/>
  <key>ProgramArguments</key>
  <array>
    <string>/usr/local/bin/node</string>
    <string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
  </array>
  <key>EnvironmentVariables</key>
  <dict>
    <key>PATH</key>
    <string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
  </dict>
</dict>
</plist>
EOF

launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist

Liens

Remarques

  • Il s’agit d’un outil communautaire, non officiellement pris en charge par Anthropic ni par OpenClaw
  • Nécessite un abonnement Claude Max/Pro actif avec une CLI Claude Code authentifiée
  • Le proxy s’exécute localement et n’envoie pas de données à des serveurs tiers
  • Les réponses en streaming sont entièrement prises en charge
Pour une intégration Anthropic native avec la CLI Claude ou des clés API, voir Anthropic provider. Pour les abonnements OpenAI/Codex, voir OpenAI provider.

Liens associés

Anthropic provider

Intégration OpenClaw native avec la CLI Claude ou des clés API.

OpenAI provider

Pour les abonnements OpenAI/Codex.

Model providers

Vue d’ensemble de tous les fournisseurs, des références de modèles et du comportement de basculement.

Configuration

Référence complète de configuration.