LiteLLM
LiteLLM은 100개 이상의 모델 provider에 대한 통합 API를 제공하는 오픈 소스 LLM 게이트웨이입니다. OpenClaw를 LiteLLM을 통해 라우팅하면 중앙 집중식 비용 추적, 로깅, 그리고 OpenClaw 구성을 변경하지 않고도 백엔드를 전환할 수 있는 유연성을 얻을 수 있습니다.OpenClaw와 함께 LiteLLM을 사용하는 이유
- 비용 추적 — 모든 모델에서 OpenClaw의 지출을 정확히 확인
- 모델 라우팅 — 구성 변경 없이 Claude, GPT-4, Gemini, Bedrock 간 전환
- 가상 키 — OpenClaw용 지출 한도가 있는 키 생성
- 로깅 — 디버깅을 위한 전체 요청/응답 로그
- 대체 경로 — 기본 provider가 다운된 경우 자동 장애 조치
빠른 시작
온보딩을 통해
수동 설정
- LiteLLM Proxy를 시작합니다:
- OpenClaw가 LiteLLM을 가리키도록 설정합니다:
구성
환경 변수
구성 파일
가상 키
OpenClaw 전용 키를 지출 한도와 함께 생성합니다:LITELLM_API_KEY로 사용하세요.
모델 라우팅
LiteLLM은 모델 요청을 서로 다른 백엔드로 라우팅할 수 있습니다. LiteLLM의config.yaml에서 구성하세요:
claude-opus-4-6을 요청하고, 라우팅은 LiteLLM이 처리합니다.
사용량 보기
LiteLLM의 대시보드 또는 API를 확인하세요:참고
- LiteLLM은 기본적으로
http://localhost:4000에서 실행됩니다 - OpenClaw는 LiteLLM의 프록시 스타일 OpenAI 호환
/v1엔드포인트를 통해 연결됩니다 - OpenAI 전용 기본 요청 형태 조정은 LiteLLM을 통해서는 적용되지 않습니다:
service_tier, Responsesstore, 프롬프트 캐시 힌트, OpenAI reasoning 호환 페이로드 형태 조정은 지원되지 않습니다 - 숨겨진 OpenClaw attribution 헤더(
originator,version,User-Agent)는 사용자 지정 LiteLLM base URL에서는 주입되지 않습니다