Hugging Face(Inference)
Hugging Face Inference Providers は、単一のrouter APIを通じてOpenAI互換のchat completionsを提供します。1つのtokenで多くのモデル(DeepSeek、Llamaなど)にアクセスできます。OpenClawはOpenAI互換endpointを使用します(chat completionsのみ)。text-to-image、embeddings、speechには、直接 HF inference clients を使用してください。- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENまたはHF_TOKEN(Make calls to Inference Providers 権限を持つfine-grained token) - API: OpenAI互換(
https://router.huggingface.co/v1) - Billing: 単一のHF token。pricing はprovider料金に従い、free tierがあります。
クイックスタート
- Hugging Face → Settings → Tokens で、Make calls to Inference Providers 権限を持つfine-grained tokenを作成します。
- オンボーディングを実行し、providerドロップダウンで Hugging Face を選び、プロンプトが表示されたらAPI keyを入力します:
- Default Hugging Face model ドロップダウンで、使いたいモデルを選びます(有効なtokenがある場合はInference APIからリストが読み込まれ、ない場合は組み込みリストが表示されます)。選択内容はデフォルトモデルとして保存されます。
- 後からconfigでデフォルトモデルを設定または変更することもできます:
非対話の例
huggingface/deepseek-ai/DeepSeek-R1 がデフォルトモデルとして設定されます。
環境に関する注意
Gatewayがdaemon(launchd/systemd)として動作している場合は、HUGGINGFACE_HUB_TOKEN または HF_TOKEN がそのprocessから利用可能であることを確認してください(たとえば ~/.openclaw/.env または env.shellEnv 経由)。
モデルdiscoveryとオンボーディングのドロップダウン
OpenClawは、Inference endpointを直接呼び出してモデルを検出します:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN または $HF_TOKEN を送信してください。authなしでは一部だけ返すendpointもあります。)レスポンスはOpenAI形式の { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] } です。
Hugging Face API key(オンボーディング、HUGGINGFACE_HUB_TOKEN、または HF_TOKEN 経由)を設定すると、OpenClawはこのGETを使って利用可能なchat-completionモデルを検出します。対話型セットアップでは、tokenを入力した後に、このリスト(またはリクエストが失敗した場合は組み込みcatalog)から内容が入った Default Hugging Face model ドロップダウンが表示されます。ランタイム時(たとえばGateway起動時)にも、keyがある場合、OpenClawは再び GET https://router.huggingface.co/v1/models を呼び出してcatalogを更新します。このリストは、組み込みcatalog(context windowやcostのようなmetadata用)とマージされます。リクエストが失敗した場合、またはkeyが設定されていない場合は、組み込みcatalogのみが使用されます。
モデル名と編集可能なオプション
- API由来の名前: APIが
name、title、またはdisplay_nameを返す場合、モデル表示名は GET /v1/models からhydrated されます。そうでない場合は、model idから導出されます(例:deepseek-ai/DeepSeek-R1→ 「DeepSeek R1」)。 - 表示名の上書き: configでモデルごとにカスタムラベルを設定すると、CLIやUIで好きな表示名にできます:
-
ポリシー接尾辞: OpenClawの組み込みHugging Faceドキュメントとヘルパーは、現在これら2つの接尾辞を組み込みポリシーバリアントとして扱います:
:fastest— 最高スループット:cheapest— 出力tokenあたりの最低コスト
models.providers.huggingface.modelsに別エントリとして追加するか、接尾辞付きでmodel.primaryを設定できます。デフォルトprovider順序は Inference Provider settings でも設定できます(接尾辞なし = その順序を使用)。 -
Config merge:
models.providers.huggingface.models内の既存エントリ(たとえばmodels.json内)は、configがマージされても保持されます。そのため、そこに設定したカスタムname、alias、またはmodel optionsは保持されます。
モデルIDと設定例
モデルrefはhuggingface/<org>/<model> 形式を使用します(Hub形式のID)。以下のリストは GET https://router.huggingface.co/v1/models に基づいています。あなたのcatalogにはさらに多く含まれている可能性があります。
ID例(inference endpointより):
| Model | Ref(先頭に huggingface/ を付ける) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest または :cheapest を付けられます。デフォルト順序は Inference Provider settings で設定してください。完全な一覧は Inference Providers と GET https://router.huggingface.co/v1/models を参照してください。
完全な設定例
PrimaryをDeepSeek R1にして、Qwenをfallbackにする::cheapest と :fastest バリアントを持たせる: