inferrs
inferrs peut servir des modèles locaux derrière une API/v1 compatible OpenAI. OpenClaw fonctionne avec inferrs via le chemin générique
openai-completions.
Pour l’instant, inferrs est mieux traité comme un backend OpenAI compatible auto-hébergé
personnalisé, et non comme un plugin fournisseur OpenClaw dédié.
Démarrage rapide
- Démarrez
inferrsavec un modèle.
- Vérifiez que le serveur est accessible.
- Ajoutez une entrée explicite de fournisseur OpenClaw et pointez votre modèle par défaut vers celle-ci.
Exemple complet de configuration
Cet exemple utilise Gemma 4 sur un serveur localinferrs.
Pourquoi requiresStringContent est important
Certaines routes Chat Completions de inferrs n’acceptent que
messages[].content sous forme de chaîne, et non des tableaux structurés de parties de contenu.
Si les exécutions OpenClaw échouent avec une erreur comme :
Réserve concernant Gemma et le schéma d’outil
Certaines combinaisons actuellesinferrs + Gemma acceptent de petites requêtes directes
/v1/chat/completions mais échouent encore sur des tours complets du runtime d’agent OpenClaw.
Si cela arrive, essayez d’abord ceci :
inferrs, le problème restant vient généralement du comportement amont du modèle/serveur plutôt que de la couche de transport d’OpenClaw.
Test smoke manuel
Une fois configuré, testez les deux couches :Dépannage
curl /v1/modelséchoue :inferrsn’est pas en cours d’exécution, n’est pas accessible ou n’est pas lié à l’hôte/port attendu.messages[].content ... expected a string: définissezcompat.requiresStringContent: true.- Les petits appels directs
/v1/chat/completionsréussissent, maisopenclaw infer model runéchoue : essayezcompat.supportsTools: false. - OpenClaw n’obtient plus d’erreurs de schéma, mais
inferrsplante encore sur de plus gros tours d’agent : traitez cela comme une limitation amont deinferrsou du modèle et réduisez la pression du prompt ou changez de backend/modèle local.
Comportement de type proxy
inferrs est traité comme un backend /v1 compatible OpenAI de type proxy, et non comme
un endpoint OpenAI natif.
- la mise en forme de requête réservée à OpenAI natif ne s’applique pas ici
- pas de
service_tier, pas destoreResponses, pas d’indices de cache de prompt, et pas de mise en forme de charge utile de compatibilité reasoning OpenAI - les en-têtes d’attribution OpenClaw cachés (
originator,version,User-Agent) ne sont pas injectés sur desbaseUrlinferrspersonnalisées