Przejdź do głównej treści

Claude Max API Proxy

claude-max-api-proxy to narzędzie społecznościowe, które wystawia twoją subskrypcję Claude Max/Pro jako endpoint API zgodny z OpenAI. Dzięki temu możesz używać swojej subskrypcji z dowolnym narzędziem obsługującym format OpenAI API.
Ta ścieżka zapewnia wyłącznie zgodność techniczną. Anthropic w przeszłości blokował część użycia subskrypcji poza Claude Code. Musisz samodzielnie zdecydować, czy chcesz z tego korzystać, i sprawdzić aktualne warunki Anthropic, zanim zaczniesz na tym polegać.

Dlaczego warto tego używać?

ApproachCostBest For
Anthropic APIPłatność za token (~15/Mwejsˊcia,15/M wejścia, 75/M wyjścia dla Opus)Aplikacje produkcyjne, duży wolumen
Claude Max subscription$200/miesiąc stałej opłatyUżycie osobiste, development, nielimitowane użycie
Jeśli masz subskrypcję Claude Max i chcesz używać jej z narzędziami zgodnymi z OpenAI, ten proxy może obniżyć koszty w niektórych przepływach pracy. Klucze API pozostają bardziej jednoznaczną ścieżką polityki dla użycia produkcyjnego.

Jak to działa

Twoja aplikacja → claude-max-api-proxy → Claude Code CLI → Anthropic (przez subskrypcję)
     (format OpenAI)                (konwersja formatu)      (używa twojego logowania)
Ten proxy:
  1. Akceptuje żądania w formacie OpenAI pod http://localhost:3456/v1/chat/completions
  2. Konwertuje je do poleceń Claude Code CLI
  3. Zwraca odpowiedzi w formacie OpenAI (streaming jest obsługiwany)

Instalacja

# Wymaga Node.js 20+ i Claude Code CLI
npm install -g claude-max-api-proxy

# Zweryfikuj, że Claude CLI jest uwierzytelnione
claude --version

Użycie

Uruchom serwer

claude-max-api
# Serwer działa pod http://localhost:3456

Przetestuj go

# Kontrola stanu
curl http://localhost:3456/health

# Lista modeli
curl http://localhost:3456/v1/models

# Uzupełnianie czatu
curl http://localhost:3456/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-opus-4",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Z OpenClaw

Możesz skierować OpenClaw na ten proxy jako niestandardowy endpoint zgodny z OpenAI:
{
  env: {
    OPENAI_API_KEY: "not-needed",
    OPENAI_BASE_URL: "http://localhost:3456/v1",
  },
  agents: {
    defaults: {
      model: { primary: "openai/claude-opus-4" },
    },
  },
}
Ta ścieżka używa tej samej trasy proxy w stylu OpenAI-compatible co inne niestandardowe backendy /v1:
  • natywne kształtowanie żądań tylko dla OpenAI nie ma zastosowania
  • brak service_tier, brak Responses store, brak wskazówek cache promptów i brak kształtowania payloadów zgodności rozumowania OpenAI
  • ukryte nagłówki atrybucji OpenClaw (originator, version, User-Agent) nie są wstrzykiwane dla URL proxy

Dostępne modele

Model IDMaps To
claude-opus-4Claude Opus 4
claude-sonnet-4Claude Sonnet 4
claude-haiku-4Claude Haiku 4

Automatyczne uruchamianie na macOS

Utwórz LaunchAgent, aby automatycznie uruchamiać proxy:
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
  <key>Label</key>
  <string>com.claude-max-api</string>
  <key>RunAtLoad</key>
  <true/>
  <key>KeepAlive</key>
  <true/>
  <key>ProgramArguments</key>
  <array>
    <string>/usr/local/bin/node</string>
    <string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
  </array>
  <key>EnvironmentVariables</key>
  <dict>
    <key>PATH</key>
    <string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
  </dict>
</dict>
</plist>
EOF

launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist

Linki

Uwagi

  • To narzędzie społecznościowe, oficjalnie niewspierane przez Anthropic ani OpenClaw
  • Wymaga aktywnej subskrypcji Claude Max/Pro z uwierzytelnionym Claude Code CLI
  • Proxy działa lokalnie i nie wysyła danych do żadnych serwerów firm trzecich
  • Odpowiedzi strumieniowe są w pełni obsługiwane

Zobacz także