Identifica le lacune di indicizzazione, ottimizza il crawl budget e proteggi le pagine che generano ricavi—trasforma gli audit mensili in un vantaggio competitivo con precisione basata sui dati.
Indexation Drift Score quantifica la differenza percentuale tra gli URL che desideri indicizzare (URL canonici presenti nella tua sitemap) e gli URL attualmente indicizzati da Google. Utilizzalo durante gli audit tecnici mensili per segnalare index bloat o l’assenza di pagine prioritarie, riallocare il crawl budget e proteggere i ranking che generano fatturato.
Indexation Drift Score (IDS) = (Variazione URL indicizzate / URL canoniche presenti nella XML sitemap) × 100. Un punteggio positivo segnala index bloat (sovra-indicizzazione); un punteggio negativo evidenzia index gaps (lacune di indicizzazione). Poiché misura il delta fra il set di crawl previsto e l’indice live di Google, l’IDS funziona come KPI di allerta precoce per pagine a fatturato critico che escono silenziosamente dalla ricerca o per URL di bassa qualità che cannibalizzano il crawl budget.
Team di livello intermedio possono mettere online una dashboard IDS in 2–3 sprint:
site:example.com
+ API URL Inspection di Search Console (batch).(Indicizzate – Canoniche) / Canoniche
in BigQuery o Snowflake; pianifica job giornaliero via Cloud Functions.robots.txt
“disallow” per URL facettate. Drift negativo? Invia le URL prioritarie a un job di Indexing API.Un retailer e-commerce Fortune 500 ha rilevato un picco IDS di +23 % dopo una migrazione PIM che ha duplicato 60 k URL di varianti colore. Implementando canonicalizzazione e inviando una sitemap pulita ha:
I motori generativi si basano spesso su segnali di freschezza e cluster canonici per scegliere le citazioni. Un IDS pulito garantisce:
Snapshot 1: 49.400 ÷ 52.000 = 0,95 (95%). Snapshot 2: 50.100 ÷ 60.000 = 0,835 (83,5%). Variazione di drift: 95% – 83,5% = –11,5 pp (punti percentuali). Interpretazione: Il sito ha aggiunto 8.000 nuovi URL ma solo 700 di essi sono stati accettati nell’indice. Il calo netto indica che la pipeline di crawling non sta tenendo il passo—probabilmente a causa di template thin/duplicati, collegamenti interni insufficienti verso le nuove sezioni o limiti di crawl budget. Azione immediata: verificare la qualità dei nuovi URL, controllare i canonicals e inviare feed XML segmentati per le pagine prioritarie.
Un picco di URL in stato «Scoperta – attualmente non indicizzata» gonfia il denominatore (totale delle URL canoniche) senza aumentare il numeratore (URL indicizzate), facendo così scendere l’Indexation Drift Score. Passaggi di indagine: 1) Esegui la scansione di un campione delle URL interessate per confermare che restituiscano status 200, contengano contenuti unici e siano linkate internamente. 2) Analizza i log del server per verificare che Googlebot stia effettivamente recuperando queste pagine; in caso contrario, indaga sulle regole del robots.txt, su variazioni eccessive di parametri o su tempi di risposta lenti che potrebbero scoraggiare la scansione. La richiesta di reindicizzazione va inviata solo dopo aver risolto le cause alla radice.
Motivi: 1) Le pagine rimosse erano di scarso valore e con poco traffico; le pagine rimaste indicizzate non hanno ancora raccolto segnali di ranking sufficienti per scalare le SERP. 2) Il pruning ha ridotto l’impronta totale di keyword; senza contenuti aggiuntivi o link building, una maggiore efficienza di indicizzazione da sola non garantisce la crescita del traffico. Prossima metrica: visibilità a livello di segmento (es. posizione media o share of voice per le principali URL commerciali) per verificare se le pagine chiave stanno migliorando anche se le sessioni complessive non si sono ancora allineate.
Dai priorità all’aggiunta di link paginati e scansionabili (rel="next"/"prev" o URL di paginazione renderizzati lato server) insieme all’infinite scroll in JavaScript. Googlebot potrebbe non eseguire gli eventi di scroll lato client, quindi gli articoli oltre il primo viewport diventano non individuabili. Fornire URL paginati tradizionali espone di nuovo i contenuti più profondi alla scansione, aumentando la probabilità che quelle pagine rientrino nell’indice e riportando il Drift Score verso i livelli pre-migrazione.
✅ Better approach: Suddividi il punteggio per directory, pattern URL o template CMS. Imposta soglie specifiche per ciascun segmento e crea avvisi automatici quando un qualsiasi segmento si discosta di oltre il 5% dal proprio baseline per due crawl consecutivi.
✅ Better approach: Allinea le fonti e gli intervalli temporali: estrai i log del server, i dati del crawler e lo Stato dell’indice in GSC nello stesso intervallo di 24 ore. Automatizza l’estrazione tramite API, quindi riconcilia gli URL con un hash univoco prima di calcolare lo scostamento.
✅ Better approach: Implementa un workflow di quarantena: contrassegna gli URL sospetti, testa le correzioni in staging e applica i tag noindex solo dopo che un trend di due settimane conferma che lo scostamento è persistente. Monitora traffico e statistiche di crawl per un altro ciclo di scansione prima di rendere definitivo il blocco.
✅ Better approach: Mappa ogni classe di URL al corrispondente valore di business (vendite, lead generation, riduzione delle richieste di supporto). Imposta KPI di indicizzazione solo per le classi ad alto valore ed escludi o consolida deliberatamente i duplicati a basso valore tramite tag canonical, redirect 301 o regole di gestione dei parametri.
Get expert SEO insights and automated optimizations with our platform.
Start Free Trial