Hugging Face(Inference)
Hugging Face Inference Providers は、単一のルーター API を通じて OpenAI 互換のチャット補完を提供します。1 つのトークンで、多数のモデル(DeepSeek、Llama など)を利用できます。OpenClaw は OpenAI 互換エンドポイント(チャット補完のみ)を使用します。text-to-image、埋め込み、speech については、HF inference clients を直接使用してください。- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENまたはHF_TOKEN(Make calls to Inference Providers 権限を持つ fine-grained token) - API: OpenAI 互換(
https://router.huggingface.co/v1) - 課金: 単一の HF トークン。pricing は provider の料金に従い、無料枠があります。
はじめに
fine-grained token を作成する
Hugging Face Settings Tokens に移動し、新しい fine-grained token を作成します。
デフォルトモデルを選択する
Default Hugging Face model ドロップダウンで、使用したいモデルを選択します。有効なトークンがある場合、一覧は Inference API から読み込まれます。そうでない場合は組み込みの一覧が表示されます。選択内容はデフォルトモデルとして保存されます。後から設定でデフォルトモデルを設定または変更することもできます。
非対話セットアップ
huggingface/deepseek-ai/DeepSeek-R1 がデフォルトモデルとして設定されます。
モデル ID
モデル参照はhuggingface/<org>/<model> 形式(Hub スタイル ID)を使用します。以下の一覧は GET https://router.huggingface.co/v1/models に基づいています。利用できるカタログにはさらに多くのモデルが含まれる場合があります。
| モデル | 参照(huggingface/ を先頭に付ける) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
高度な詳細
モデル検出とオンボーディングのドロップダウン
モデル検出とオンボーディングのドロップダウン
モデル名、エイリアス、およびポリシー接尾辞
モデル名、エイリアス、およびポリシー接尾辞
- API からの名前: モデル表示名は、API が
name、title、またはdisplay_nameを返す場合、GET /v1/models から補完されます。それ以外の場合は、モデル ID から導出されます(例:deepseek-ai/DeepSeek-R1は「DeepSeek R1」になります)。 - 表示名を上書きする: モデルごとに設定でカスタムラベルを設定でき、CLI や UI で好みの表示にできます。
-
ポリシー接尾辞: OpenClaw の組み込み Hugging Face ドキュメントとヘルパーは、現在これら 2 つの接尾辞を組み込みのポリシーバリアントとして扱います。
:fastest— 最高スループット。:cheapest— 出力トークンあたりの最低コスト。
models.providers.huggingface.modelsに個別のエントリとして追加することも、接尾辞付きでmodel.primaryに設定することもできます。また、デフォルトの provider 順序は Inference Provider settings で設定できます(接尾辞なし = その順序を使用)。 -
設定マージ:
models.providers.huggingface.models内の既存エントリ(たとえばmodels.json内)は、設定マージ時に保持されます。そのため、そこに設定したカスタムのname、alias、またはモデルオプションは維持されます。
環境とデーモンセットアップ
環境とデーモンセットアップ
Gateway がデーモン(launchd/systemd)として実行される場合は、
HUGGINGFACE_HUB_TOKEN または HF_TOKEN がそのプロセスで利用可能であることを確認してください(たとえば ~/.openclaw/.env または env.shellEnv 経由)。OpenClaw は
HUGGINGFACE_HUB_TOKEN と HF_TOKEN の両方を env var エイリアスとして受け付けます。どちらでも機能します。両方が設定されている場合は、HUGGINGFACE_HUB_TOKEN が優先されます。設定: Qwen をフォールバックにした DeepSeek R1
設定: Qwen をフォールバックにした DeepSeek R1
設定: cheapest と fastest バリアントを使う Qwen
設定: cheapest と fastest バリアントを使う Qwen
設定: エイリアス付きの DeepSeek + Llama + GPT-OSS
設定: エイリアス付きの DeepSeek + Llama + GPT-OSS
設定: ポリシー接尾辞付きの複数の Qwen と DeepSeek
設定: ポリシー接尾辞付きの複数の Qwen と DeepSeek
関連
Model providers
すべての provider、モデル参照、フェイルオーバー動作の概要。
Model selection
モデルの選び方と設定方法。
Inference Providers docs
Hugging Face Inference Providers の公式ドキュメント。
Configuration
完全な設定リファレンス。