Récupération Web
L’outilweb_fetch effectue un simple HTTP GET et extrait un contenu lisible
(HTML vers markdown ou texte). Il n’exécute pas JavaScript.
Pour les sites riches en JS ou les pages protégées par connexion, utilisez plutôt le
Web Browser.
Démarrage rapide
web_fetch est activé par défaut — aucune configuration n’est nécessaire. L’agent peut
l’appeler immédiatement :
Paramètres de l’outil
| Parameter | Type | Description |
|---|---|---|
url | string | URL à récupérer (obligatoire, http/https uniquement) |
extractMode | string | "markdown" (par défaut) ou "text" |
maxChars | number | Tronquer la sortie à ce nombre de caractères |
Fonctionnement
Récupération
Envoie un HTTP GET avec un User-Agent de type Chrome et un en-tête
Accept-Language.
Bloque les noms d’hôte privés/internes et revérifie les redirections.Repli (facultatif)
Si Readability échoue et que Firecrawl est configuré, réessaie via l’API
Firecrawl avec le mode de contournement des bots.
Configuration
Repli Firecrawl
Si l’extraction Readability échoue,web_fetch peut se replier sur
Firecrawl pour le contournement des bots et une meilleure extraction :
plugins.entries.firecrawl.config.webFetch.apiKey prend en charge les objets SecretRef.
L’ancienne configuration tools.web.fetch.firecrawl.* est migrée automatiquement par openclaw doctor --fix.
Si Firecrawl est activé et que son SecretRef n’est pas résolu sans
variable d’environnement de repli
FIRECRAWL_API_KEY, le démarrage de la gateway échoue immédiatement.Les remplacements de
baseUrl Firecrawl sont strictement encadrés : ils doivent utiliser https:// et
l’hôte officiel Firecrawl (api.firecrawl.dev).tools.web.fetch.providersélectionne explicitement le fournisseur de repli de récupération.- Si
providerest omis, OpenClaw détecte automatiquement le premier fournisseur web-fetch prêt à partir des identifiants disponibles. Aujourd’hui, le fournisseur groupé est Firecrawl. - Si Readability est désactivé,
web_fetchpasse directement au repli du fournisseur sélectionné. Si aucun fournisseur n’est disponible, il échoue de manière fermée.
Limites et sécurité
maxCharsest limité àtools.web.fetch.maxCharsCap- Le corps de la réponse est limité à
maxResponseBytesavant analyse ; les réponses trop volumineuses sont tronquées avec un avertissement - Les noms d’hôte privés/internes sont bloqués
- Les redirections sont vérifiées et limitées par
maxRedirects web_fetchfonctionne au mieux — certains sites nécessitent le Web Browser
Profils d’outils
Si vous utilisez des profils d’outils ou des listes d’autorisation, ajoutezweb_fetch ou group:web :
Lié
- Web Search — rechercher sur le web avec plusieurs fournisseurs
- Web Browser — automatisation complète du navigateur pour les sites riches en JS
- Firecrawl — outils Firecrawl de recherche et de scraping