Claude Max API Proxy
claude-max-api-proxy é uma ferramenta da comunidade que expõe sua assinatura Claude Max/Pro como um endpoint de API compatível com OpenAI. Isso permite usar sua assinatura com qualquer ferramenta que ofereça suporte ao formato de API da OpenAI.
Este caminho é apenas para compatibilidade técnica. A Anthropic já bloqueou alguns usos de assinatura
fora do Claude Code no passado. Cabe a você decidir se quer usá-lo
e verificar os termos atuais da Anthropic antes de depender disso.
Por que usar isso?
| Abordagem | Custo | Melhor para |
|---|
| API da Anthropic | Pagamento por token (~15/Mdeentrada,75/M de saída para Opus) | Apps de produção, alto volume |
| Assinatura Claude Max | $200/mês fixos | Uso pessoal, desenvolvimento, uso ilimitado |
Se você tem uma assinatura Claude Max e quer usá-la com ferramentas compatíveis com OpenAI, esse proxy pode reduzir o custo em alguns fluxos de trabalho. Chaves de API continuam sendo o caminho de política mais claro para uso em produção.
Como funciona
Seu app → claude-max-api-proxy → Claude Code CLI → Anthropic (via assinatura)
(formato OpenAI) (converte o formato) (usa seu login)
O proxy:
- Aceita solicitações no formato OpenAI em
http://localhost:3456/v1/chat/completions
- Converte essas solicitações em comandos da CLI do Claude Code
- Retorna respostas no formato OpenAI (streaming com suporte)
Instalação
# Requer Node.js 20+ e Claude Code CLI
npm install -g claude-max-api-proxy
# Verifique se a CLI do Claude está autenticada
claude --version
Uso
Iniciar o servidor
claude-max-api
# O servidor roda em http://localhost:3456
Teste
# Verificação de integridade
curl http://localhost:3456/health
# Listar modelos
curl http://localhost:3456/v1/models
# Chat completion
curl http://localhost:3456/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "claude-opus-4",
"messages": [{"role": "user", "content": "Hello!"}]
}'
Você pode apontar o OpenClaw para o proxy como um endpoint personalizado compatível com OpenAI:
{
env: {
OPENAI_API_KEY: "not-needed",
OPENAI_BASE_URL: "http://localhost:3456/v1",
},
agents: {
defaults: {
model: { primary: "openai/claude-opus-4" },
},
},
}
Esse caminho usa a mesma rota compatível com OpenAI no estilo proxy de outros backends
personalizados /v1:
- a modelagem de solicitação nativa exclusiva do OpenAI não se aplica
- sem
service_tier, sem store de Responses, sem dicas de cache de prompt e sem
modelagem de payload compatível com raciocínio do OpenAI
- headers ocultos de atribuição do OpenClaw (
originator, version, User-Agent)
não são injetados na URL do proxy
Modelos disponíveis
| ID do modelo | Mapeia para |
|---|
claude-opus-4 | Claude Opus 4 |
claude-sonnet-4 | Claude Sonnet 4 |
claude-haiku-4 | Claude Haiku 4 |
Início automático no macOS
Crie um LaunchAgent para executar o proxy automaticamente:
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.claude-max-api</string>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/node</string>
<string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
</array>
<key>EnvironmentVariables</key>
<dict>
<key>PATH</key>
<string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
</dict>
</dict>
</plist>
EOF
launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist
Links
Observações
- Esta é uma ferramenta da comunidade, sem suporte oficial da Anthropic nem do OpenClaw
- Requer uma assinatura ativa do Claude Max/Pro com a Claude Code CLI autenticada
- O proxy roda localmente e não envia dados para servidores de terceiros
- Respostas por streaming têm suporte completo
Veja também