Mitiga la perdita di contenuti invisibili: migra le risorse basate su frammenti verso URL scansionabili e riconquista ranking, crawl budget e oltre il 20% del traffico delle pagine orfane.
L’URL Fragment Indexing è la pratica (ormai deprecata) di far sì che Google consideri tutto ciò che segue il simbolo “#” come una pagina distinta; poiché i crawler moderni ignorano i frammenti, qualsiasi contenuto caricato esclusivamente tramite “#” resta invisibile ai motori di ricerca, quindi i professionisti SEO dovrebbero rendere quel contenuto disponibile tramite percorsi indicizzabili o parametri di query per evitare perdite di posizionamento e traffico.
Indicizzazione dei frammenti URL è la tecnica legacy che espone contenuti unici dopo il “#” (o “#!”) in un URL—es. example.com/page#section—e presume che Google li tratti come documenti distinti. La deprecazione nel 2015 dello schema di crawling AJAX da parte di Google significa che i crawler moderni rimuovono del tutto i frammenti. Se una Single-Page Application (SPA) o un sito legacy carica ancora contenuti critici esclusivamente tramite frammenti, tali contenuti risultano invisibili a motori di ricerca, parser di dati strutturati e modelli AI che si basano sul DOM renderizzato e indicizzabile. Per il business ciò si traduce in pagine orfane, cannibalizzazione del crawl budget e sparizione dei ranking—soprattutto per le query long-tail che spesso generano traffico ad alta intenzione.
E-commerce: La navigazione a faccette di un retailer fashion usava hash (es. #?color=red). La migrazione a URL parametrizzati più SSR ha generato un incremento del 28 % del revenue organico non-brand nel Q4 e un +43 % di keyword long-tail in ranking.
Documentazione SaaS: Un provider SaaS Fortune 500 serviva ogni articolo di supporto come frammento via React Router. Dopo la migrazione a esportazioni HTML statiche, le query di assistenza in SERP sono passate dalla posizione 9,2 alla 3,6, riducendo i ticket di supporto del 12 % MoM.
Metti a budget 10–30 k $ di lavoro engineering (40–80 ore) più 3–5 k $ per supervisione SEO e tooling di QA. Le aziende con team di sviluppo interni possono inserire l’attività nella roadmap trimestrale; le agenzie dovrebbero quotarla come sprint dedicato di SEO tecnico. Il payback arriva di solito entro 3–6 mesi grazie al recupero di traffico organico e alla riduzione della spesa paid su query precedentemente perse per “cecità da frammento”.
Googlebot rimuove il frammento (#) prima di effettuare la richiesta HTTP, quindi ogni vista basata su hash viene risolta nella stessa risorsa lato server. Poiché il crawler riceve lo stesso HTML per https://example.com/ e https://example.com/#/pricing, li considera un unico URL e ignora il frammento durante la costruzione dell’indice. Per rendere indicizzabili le singole viste, migra al routing tramite History API (percorsi puliti come /pricing) o implementa server-side rendering/prerendering che restituisca HTML univoco e crawlable in tali percorsi. Questa modifica consente a Googlebot di recuperare URL distinti, generare voci di indice separate e posizionare ciascuna vista in modo indipendente.
I frammenti scroll-to-text (#:~:text=) vengono generati da Google, non dal tuo markup, per far atterrare l’utente esattamente sulla frase che corrisponde alla sua query. Google continua a indicizzare l’URL canonico (/post); il frammento viene aggiunto solo al momento del clic nello snippet in SERP. Di conseguenza, Google non considera il frammento una risorsa a sé stante: rimane legato ai segnali di ranking della pagina principale. Non dovresti creare pagine o link esclusivamente per questi frammenti. Concentrati invece sul migliorare la semantica on-page (titoli chiari, paragrafi concisi, parole chiave in stretta prossimità) affinché Google possa generare algoritmicamente link scroll-to-text utili quando rilevanti.
I frammenti hash non vengono inviati nella richiesta HTTP: esistono solo lato client. Googlebot (e qualsiasi log del server) quindi mostra solo l’URL base, mentre le analytics lato browser si attivano dopo il caricamento della pagina e possono leggere window.location.hash, registrando ulteriori pseudo-pageview come /#coupon. Ai fini SEO, viene valutato per il posizionamento solo l’URL base. Per evitare di gonfiare il conteggio delle pageview o di confondere le metriche di engagement, configura la tua vista Analytics affinché rimuova o normalizzi i frammenti hash, oppure passa al tracciamento degli eventi invece delle pseudo-pagine basate su frammenti.
No. Poiché Googlebot ignora tutto ciò che segue il simbolo # nella richiesta, https://example.com/product?color=red e https://example.com/product?color=red#utm_campaign=summer rimandano alla stessa risorsa e condividono una sola voce nell’indice. Il frammento non genererà pagine duplicate né diluirà la link equity. Tuttavia, l’URL con il frammento può comunque comparire nei profili di backlink e nei report di Analytics, quindi normalizza i link pubblici o utilizza un link shortener per mantenere puliti i dati di reporting.
✅ Better approach: Utilizza parametri di query o URL basati sul percorso per contenuti distinti. Rimuovi i frammenti da sitemap, link interni e tag canonici; punta l’attributo rel="canonical" all’URL base affinché Google esegua la scansione di una sola versione.
✅ Better approach: Passa al routing tramite History API o fornisci rendering lato server / rendering dinamico che restituisca HTML completo senza il frammento. Convalida con lo Strumento di controllo URL per assicurarti che il contenuto renderizzato corrisponda a ciò che vedono gli utenti.
✅ Better approach: Dichiara sempre gli URL canonici, hreflang e della sitemap senza il #fragment. Per la navigazione interna alla pagina, utilizza altri metodi (ad es. anchor o ID) invece di URL canonici con fragment.
✅ Better approach: Sposta i parametri di tracciamento nella stringa di query oppure configura uno script lato client che riscriva il frammento in un parametro di query prima che gli hit di pageview vengano inviati. Verifica in Analytics che le sessioni siano attribuite correttamente.
Sfrutta la Template Entropy per individuare il boilerplate che prosciuga …
Elimina la diluizione dell’index budget per recuperare crawl equity, riduci …
Rimuovi l'index bloat programmatico per recuperare il crawl budget, consolidare …
Proteggi il crawl budget, consolida la link equity e supera …
Individua rapidamente gli scraper, rafforza il controllo canonico e recupera …
Individua la soglia di saturazione per conservare il crawl budget, …
Get expert SEO insights and automated optimizations with our platform.
Start Free Trial