Web Fetch
Lo strumentoweb_fetch esegue una semplice richiesta HTTP GET ed estrae contenuti leggibili
(da HTML a markdown o testo). Non esegue JavaScript.
Per siti ricchi di JS o pagine protette da login, usa invece
Web Browser.
Guida rapida
web_fetch è abilitato per impostazione predefinita — non è necessaria alcuna configurazione. L’agente può
chiamarlo immediatamente:
Parametri dello strumento
| Parametro | Tipo | Descrizione |
|---|---|---|
url | string | URL da recuperare (obbligatorio, solo http/https) |
extractMode | string | "markdown" (predefinito) o "text" |
maxChars | number | Tronca l’output a questo numero di caratteri |
Come funziona
Recupero
Invia una richiesta HTTP GET con uno User-Agent simile a Chrome e l’header
Accept-Language.
Blocca hostname privati/interni e ricontrolla i redirect.Fallback (facoltativo)
Se Readability fallisce e Firecrawl è configurato, riprova tramite l’API
Firecrawl con modalità di aggiramento dei bot.
Configurazione
Fallback Firecrawl
Se l’estrazione con Readability fallisce,web_fetch può usare come fallback
Firecrawl per l’aggiramento dei bot e una migliore estrazione:
plugins.entries.firecrawl.config.webFetch.apiKey supporta oggetti SecretRef.
La configurazione legacy tools.web.fetch.firecrawl.* viene migrata automaticamente da openclaw doctor --fix.
Se Firecrawl è abilitato e il suo SecretRef non è risolto senza
fallback della variabile d’ambiente
FIRECRAWL_API_KEY, l’avvio del gateway fallisce rapidamente.Le sovrascritture di
baseUrl per Firecrawl sono rigidamente limitate: devono usare https:// e
l’host ufficiale di Firecrawl (api.firecrawl.dev).tools.web.fetch.providerseleziona esplicitamente il provider di fallback per il recupero.- Se
providerviene omesso, OpenClaw rileva automaticamente il primo providerweb_fetchpronto dalle credenziali disponibili. Attualmente il provider incluso è Firecrawl. - Se Readability è disabilitato,
web_fetchpassa direttamente al fallback del provider selezionato. Se nessun provider è disponibile, fallisce in modo sicuro.
Limiti e sicurezza
maxCharsè limitato atools.web.fetch.maxCharsCap- Il corpo della risposta è limitato a
maxResponseBytesprima del parsing; le risposte troppo grandi vengono troncate con un avviso - Gli hostname privati/interni sono bloccati
- I redirect vengono controllati e limitati da
maxRedirects web_fetchè best-effort — alcuni siti richiedono Web Browser
Profili degli strumenti
Se usi profili degli strumenti o allowlist, aggiungiweb_fetch o group:web:
Correlati
- Web Search — cerca nel web con più provider
- Web Browser — automazione completa del browser per siti ricchi di JS
- Firecrawl — strumenti Firecrawl per ricerca e scraping