Claude Max API Proxy
claude-max-api-proxy es una herramienta comunitaria que expone tu suscripción Claude Max/Pro como un endpoint API compatible con OpenAI. Esto te permite usar tu suscripción con cualquier herramienta que admita el formato de la API de OpenAI.
Esta ruta es solo de compatibilidad técnica. Anthropic ha bloqueado en el pasado parte del uso de suscripciones
fuera de Claude Code. Debes decidir por tu cuenta si quieres usarla y verificar los términos actuales de Anthropic antes de depender de ella.
¿Por qué usar esto?
| Enfoque | Costo | Ideal para |
|---|
| API de Anthropic | Pago por token (~15/Mentrada,75/M salida para Opus) | Apps de producción, alto volumen |
| Suscripción Claude Max | $200/mes tarifa plana | Uso personal, desarrollo, uso ilimitado |
Si tienes una suscripción Claude Max y quieres usarla con herramientas compatibles con OpenAI, este proxy puede reducir costos en algunos flujos de trabajo. Las claves API siguen siendo la vía de política más clara para uso en producción.
Cómo funciona
Your App → claude-max-api-proxy → Claude Code CLI → Anthropic (via subscription)
(OpenAI format) (converts format) (uses your login)
El proxy:
- Acepta solicitudes en formato OpenAI en
http://localhost:3456/v1/chat/completions
- Las convierte en comandos de Claude Code CLI
- Devuelve respuestas en formato OpenAI (con streaming compatible)
Instalación
# Requires Node.js 20+ and Claude Code CLI
npm install -g claude-max-api-proxy
# Verify Claude CLI is authenticated
claude --version
Uso
Iniciar el servidor
claude-max-api
# Server runs at http://localhost:3456
Probarlo
# Health check
curl http://localhost:3456/health
# List models
curl http://localhost:3456/v1/models
# Chat completion
curl http://localhost:3456/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "claude-opus-4",
"messages": [{"role": "user", "content": "Hello!"}]
}'
Con OpenClaw
Puedes apuntar OpenClaw al proxy como un endpoint personalizado compatible con OpenAI:
{
env: {
OPENAI_API_KEY: "not-needed",
OPENAI_BASE_URL: "http://localhost:3456/v1",
},
agents: {
defaults: {
model: { primary: "openai/claude-opus-4" },
},
},
}
Esta ruta usa la misma vía de proxy compatible con OpenAI que otros backends
personalizados /v1:
- no se aplica la conformación de solicitudes nativa solo de OpenAI
- no hay
service_tier, ni store de Responses, ni sugerencias de caché de prompts, ni
conformación de carga útil de compatibilidad de razonamiento de OpenAI
- los encabezados de atribución ocultos de OpenClaw (
originator, version, User-Agent)
no se inyectan en la URL del proxy
Modelos disponibles
| ID del modelo | Se asigna a |
|---|
claude-opus-4 | Claude Opus 4 |
claude-sonnet-4 | Claude Sonnet 4 |
claude-haiku-4 | Claude Haiku 4 |
Inicio automático en macOS
Crea un LaunchAgent para ejecutar el proxy automáticamente:
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.claude-max-api</string>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/node</string>
<string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
</array>
<key>EnvironmentVariables</key>
<dict>
<key>PATH</key>
<string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
</dict>
</dict>
</plist>
EOF
launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist
Enlaces
Notas
- Esta es una herramienta comunitaria, no compatible oficialmente por Anthropic ni por OpenClaw
- Requiere una suscripción activa de Claude Max/Pro con Claude Code CLI autenticado
- El proxy se ejecuta localmente y no envía datos a servidores de terceros
- Las respuestas en streaming son totalmente compatibles
Ver también