Hugging Face (Inference)
Hugging Face Inference Providers는 단일 라우터 API를 통해 OpenAI 호환 chat completions를 제공합니다. 하나의 토큰으로 많은 모델(DeepSeek, Llama 등)에 접근할 수 있습니다. OpenClaw는 OpenAI 호환 엔드포인트(chat completions 전용)를 사용합니다. text-to-image, 임베딩 또는 음성에는 HF inference clients를 직접 사용하세요.- Provider:
huggingface - 인증:
HUGGINGFACE_HUB_TOKEN또는HF_TOKEN(Make calls to Inference Providers 권한이 있는 세분화 토큰) - API: OpenAI 호환 (
https://router.huggingface.co/v1) - 과금: 단일 HF 토큰, 요금은 provider 요율을 따르며 무료 등급이 있습니다.
시작하기
세분화 토큰 생성
Hugging Face Settings Tokens로 이동해 새 세분화 토큰을 생성하세요.
기본 모델 선택
Default Hugging Face model 드롭다운에서 원하는 모델을 선택하세요. 유효한 토큰이 있으면 목록은 Inference API에서 로드되고, 그렇지 않으면 내장 목록이 표시됩니다. 선택한 항목은 기본 모델로 저장됩니다.나중에 config에서 기본 모델을 설정하거나 변경할 수도 있습니다:
비대화형 설정
huggingface/deepseek-ai/DeepSeek-R1이 기본 모델로 설정됩니다.
모델 ID
모델 참조는huggingface/<org>/<model> 형식(Hub 스타일 ID)을 사용합니다. 아래 목록은 GET https://router.huggingface.co/v1/models에서 가져온 것이며, 카탈로그에는 더 많은 모델이 포함될 수 있습니다.
| 모델 | 참조 (huggingface/ 접두사 추가) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
고급 세부 사항
모델 검색과 온보딩 드롭다운
모델 검색과 온보딩 드롭다운
모델 이름, 별칭, 정책 접미사
모델 이름, 별칭, 정책 접미사
- API의 이름: API가
name,title, 또는display_name을 반환하면 모델 표시 이름은 GET /v1/models에서 수집됩니다. 그렇지 않으면 모델 ID에서 파생됩니다(예:deepseek-ai/DeepSeek-R1은 “DeepSeek R1”이 됩니다). - 표시 이름 재정의: config에서 모델별 사용자 지정 레이블을 설정해 CLI와 UI에서 원하는 방식으로 표시할 수 있습니다:
-
정책 접미사: OpenClaw의 번들 Hugging Face 문서와 도우미는 현재 다음 두 접미사를 내장 정책 변형으로 취급합니다:
:fastest— 가장 높은 처리량.:cheapest— 출력 토큰당 가장 낮은 비용.
models.providers.huggingface.models에 별도 항목으로 추가하거나, 접미사를 포함한model.primary를 설정할 수 있습니다. Inference Provider settings에서 기본 provider 순서를 설정할 수도 있습니다(접미사 없음 = 해당 순서 사용). -
Config 병합:
models.providers.huggingface.models(예:models.json)의 기존 항목은 config 병합 시 유지됩니다. 따라서 այնտեղ 설정한 사용자 지정name,alias, 또는 모델 옵션은 보존됩니다.
환경 및 데몬 설정
환경 및 데몬 설정
Gateway가 데몬(launchd/systemd)으로 실행되면
HUGGINGFACE_HUB_TOKEN 또는 HF_TOKEN이 해당 프로세스에서 사용 가능하도록 하세요(예: ~/.openclaw/.env 또는 env.shellEnv를 통해).OpenClaw는
HUGGINGFACE_HUB_TOKEN과 HF_TOKEN을 모두 env var 별칭으로 허용합니다. 둘 중 어느 것이든 동작합니다. 둘 다 설정되면 HUGGINGFACE_HUB_TOKEN이 우선합니다.Config: Qwen 폴백이 있는 DeepSeek R1
Config: Qwen 폴백이 있는 DeepSeek R1
Config: cheapest 및 fastest 변형이 있는 Qwen
Config: cheapest 및 fastest 변형이 있는 Qwen
Config: 별칭이 있는 DeepSeek + Llama + GPT-OSS
Config: 별칭이 있는 DeepSeek + Llama + GPT-OSS
Config: 정책 접미사가 있는 여러 Qwen 및 DeepSeek
Config: 정책 접미사가 있는 여러 Qwen 및 DeepSeek
관련 항목
모델 provider
모든 provider, 모델 참조, 장애 조치 동작 개요.
모델 선택
모델을 선택하고 구성하는 방법.
Inference Providers docs
공식 Hugging Face Inference Providers 문서.
구성
전체 config 참조.