Passer au contenu principal

Proxy API Claude Max

claude-max-api-proxy est un outil communautaire qui expose votre abonnement Claude Max/Pro comme point de terminaison API compatible OpenAI. Cela vous permet d’utiliser votre abonnement avec n’importe quel outil prenant en charge le format de l’API OpenAI.
Cette voie n’est qu’une compatibilité technique. Anthropic a déjà bloqué certains usages d’abonnement en dehors de Claude Code. Vous devez décider vous-même si vous souhaitez l’utiliser et vérifier les conditions actuelles d’Anthropic avant de vous y fier.

Pourquoi l’utiliser ?

ApprocheCoûtIdéal pour
API AnthropicPaiement au jeton (~15 /Menentreˊe,75/M en entrée, 75 /M en sortie pour Opus)Applications de production, volume élevé
Abonnement Claude Max200 $/mois forfaitairesUsage personnel, développement, usage illimité
Si vous avez un abonnement Claude Max et souhaitez l’utiliser avec des outils compatibles OpenAI, ce proxy peut réduire les coûts pour certains flux de travail. Les clés API restent la voie la plus claire du point de vue des règles pour un usage en production.

Fonctionnement

Votre application → claude-max-api-proxy → Claude Code CLI → Anthropic (via abonnement)
   (format OpenAI)          (convertit le format)         (utilise votre connexion)
Le proxy :
  1. Accepte les requêtes au format OpenAI sur http://localhost:3456/v1/chat/completions
  2. Les convertit en commandes Claude Code CLI
  3. Renvoie les réponses au format OpenAI (streaming pris en charge)

Installation

# Nécessite Node.js 20+ et Claude Code CLI
npm install -g claude-max-api-proxy

# Vérifier que Claude CLI est authentifié
claude --version

Utilisation

Démarrer le serveur

claude-max-api
# Le serveur s’exécute sur http://localhost:3456

Le tester

# Vérification d’état
curl http://localhost:3456/health

# Lister les modèles
curl http://localhost:3456/v1/models

# Completion de chat
curl http://localhost:3456/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-opus-4",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Avec OpenClaw

Vous pouvez faire pointer OpenClaw vers le proxy comme point de terminaison personnalisé compatible OpenAI :
{
  env: {
    OPENAI_API_KEY: "not-needed",
    OPENAI_BASE_URL: "http://localhost:3456/v1",
  },
  agents: {
    defaults: {
      model: { primary: "openai/claude-opus-4" },
    },
  },
}
Cette voie utilise la même route de type proxy compatible OpenAI que les autres backends personnalisés /v1 :
  • le façonnage des requêtes natif propre à OpenAI ne s’applique pas
  • pas de service_tier, pas de store Responses, pas d’indices de cache de prompt, ni de façonnage de charge utile de compatibilité du raisonnement OpenAI
  • les en-têtes d’attribution OpenClaw cachés (originator, version, User-Agent) ne sont pas injectés sur l’URL du proxy

Modèles disponibles

ID du modèleCorrespond à
claude-opus-4Claude Opus 4
claude-sonnet-4Claude Sonnet 4
claude-haiku-4Claude Haiku 4

Démarrage automatique sur macOS

Créez un LaunchAgent pour exécuter automatiquement le proxy :
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
  <key>Label</key>
  <string>com.claude-max-api</string>
  <key>RunAtLoad</key>
  <true/>
  <key>KeepAlive</key>
  <true/>
  <key>ProgramArguments</key>
  <array>
    <string>/usr/local/bin/node</string>
    <string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
  </array>
  <key>EnvironmentVariables</key>
  <dict>
    <key>PATH</key>
    <string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
  </dict>
</dict>
</plist>
EOF

launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist

Liens

Remarques

  • Il s’agit d’un outil communautaire, non officiellement pris en charge par Anthropic ou OpenClaw
  • Nécessite un abonnement Claude Max/Pro actif avec Claude Code CLI authentifié
  • Le proxy s’exécute localement et n’envoie pas de données à des serveurs tiers
  • Les réponses en streaming sont entièrement prises en charge

Voir aussi