inferrs
inferrs は、 OpenAI互換の/v1 API の背後でローカルモデルを提供できます。OpenClawは、汎用の
openai-completions 経路を通じて inferrs と連携します。
現在のところ、inferrs は専用のOpenClawプロバイダープラグインではなく、
カスタムのセルフホスト型OpenAI互換バックエンドとして扱うのが最適です。
クイックスタート
- モデルを指定して
inferrsを起動します。
- サーバーに到達できることを確認します。
- 明示的なOpenClawプロバイダーエントリを追加し、デフォルトモデルがそれを指すようにします。
完全な設定例
この例では、ローカルのinferrs サーバー上でGemma 4を使用します。
requiresStringContent が重要な理由
一部の inferrs Chat Completions 経路は、構造化されたcontent-part配列ではなく、
文字列の messages[].content のみを受け付けます。
OpenClawの実行が次のようなエラーで失敗する場合:
Gemmaとツールスキーマに関する注意点
現在の一部のinferrs + Gemma の組み合わせでは、小さな直接
/v1/chat/completions リクエストは受け付けても、完全なOpenClaw agent-runtime
ターンでは失敗することがあります。
その場合は、まず次を試してください:
inferrs 内で引き続きクラッシュする場合、残っている問題は通常、
OpenClawの転送レイヤーではなく上流のモデル/サーバー動作です。
手動スモークテスト
設定後は、両方のレイヤーをテストしてください:トラブルシューティング
curl /v1/modelsが失敗する:inferrsが起動していない、到達できない、または 想定したホスト/ポートにバインドされていません。messages[].content ... expected a string:compat.requiresStringContent: trueを設定してください。- 直接の小さな
/v1/chat/completions呼び出しは成功するが、openclaw infer model runが失敗する:compat.supportsTools: falseを試してください。 - OpenClawでスキーマエラーは出なくなったが、より大きなagentターンで
inferrsが引き続きクラッシュする: 上流のinferrsまたはモデルの制限として扱い、プロンプト負荷を下げるか、 ローカルバックエンド/モデルを切り替えてください。
プロキシ型の動作
inferrs は、ネイティブなOpenAIエンドポイントではなく、
プロキシ型のOpenAI互換 /v1 バックエンドとして扱われます。
- ここではネイティブOpenAI専用のリクエスト整形は適用されません
service_tier、Responses のstore、プロンプトキャッシュヒント、 OpenAI reasoning互換ペイロード整形はありません- 非公開のOpenClaw attribution ヘッダー(
originator、version、User-Agent)は、 カスタムinferrsbase URL には注入されません