Spot indexeringshiaten, herwin je crawlbudget en bescherm omzetpagina’s—maak van maandelijkse audits een concurrentievoordeel met datagestuurde precisie.
De Indexation Drift Score kwantificeert het procentuele verschil tussen de URL’s die je geïndexeerd wilt hebben (canonicals in je sitemap) en de URL’s die momenteel door Google zijn geïndexeerd. Gebruik deze score tijdens maandelijkse technische audits om indexbloat of ontbrekende pagina’s met hoge prioriteit te signaleren, je crawlbudget te herverdelen en omzetgenererende rankings te beschermen.
Indexation Drift Score (IDS) = (Indexed URL’s ∆ / Canonical URL’s in XML-sitemap) × 100. Een positieve score duidt op index bloat; een negatieve score signaleert index gaps. Omdat de IDS het verschil meet tussen je beoogde crawlset en Google’s live-index, fungeert hij als een early-warning KPI voor omzetkritische pagina’s die ongemerkt uit de zoekresultaten verdwijnen of voor URL’s van lage kwaliteit die het crawlbudget kannibaliseren.
Teams op gemiddeld niveau kunnen binnen 2–3 sprints een IDS-dashboard opzetten:
site:example.com
+ Search Console URL Inspection API (batch).(Indexed – Canonical) / Canonical
in BigQuery of Snowflake; plan dit dagelijks via Cloud Functions.robots.txt
-patch met disallow voor gefacetteerde URL’s. Negatieve drift? Push prioritaire URL’s naar een Indexing API-job.Een Fortune 500 e-commerce-retailer ontdekte een IDS-piek van +23 % nadat een PIM-migratie 60 k kleurvariant-URL’s dupliceerde. Door canonieke consolidatie en het indienen van een schone sitemap realiseerden zij:
Generatieve engines vertrouwen vaak op freshness-signalen en canonieke clusters om citaties te selecteren. Een schone IDS zorgt ervoor dat:
Snapshot 1: 49.400 ÷ 52.000 = 0,95 (95%).<br> Snapshot 2: 50.100 ÷ 60.000 = 0,835 (83,5%).<br> Drift change: 95% – 83,5% = –11,5 pp (procentpunten).<br> Interpretatie: De site heeft 8.000 nieuwe URL’s toegevoegd, maar slechts 700 daarvan zijn in de index opgenomen. De scherpe daling geeft aan dat de crawl-pijplijn het niet bijhoudt—waarschijnlijk door dunne/duplicaat-templates, onvoldoende interne links naar nieuwe secties of beperkingen in het crawlbudget. Directe actie: controleer de kwaliteit van de nieuwe URL’s, verifieer de canonicals en dien XML-segmentfeeds in voor prioritaire pagina’s.
A spike in “Gevonden – momenteel niet geïndexeerd” vergroot de noemer (totaal aantal canonieke URL's) zonder iets toe te voegen aan de teller (geïndexeerde URL's), waardoor de Indexation Drift Score daalt. Investigative steps: 1) Crawl een steekproef van de getroffen URL's om te bevestigen dat ze een 200-statuscode retourneren, unieke content bevatten en intern gelinkt zijn. 2) Controleer de serverlogs om te verifiëren dat Googlebot deze pagina's daadwerkelijk ophaalt; zo niet, onderzoek dan robots.txt-regels, overmatige parametervariaties of trage responstijden die crawling kunnen ontmoedigen. Pas nadat de onderliggende oorzaken zijn verholpen, mag een herindexeringsverzoek worden ingediend.
Redenen: 1) De verwijderde pagina’s waren van lage waarde en hadden bovendien weinig verkeer; de overgebleven geïndexeerde pagina’s hebben nog niet genoeg rankingsignalen vergaard om hoger in de SERP’s te komen. 2) Het snoeien verminderde de totale keyword footprint; zonder extra content of linkbuilding garandeert een hogere indexatie-efficiëntie op zichzelf geen groei in verkeer. Volgende metriek: zichtbaarheid op segmentniveau (bijv. gemiddelde positie of share of voice voor de belangrijkste commerciële URL’s) om te zien of kernpagina’s verbeteren, zelfs als het totale aantal sessies nog niet is gestegen.
Geef prioriteit aan het toevoegen van gepagineerde, crawlbare links (rel="next"/"prev" of server-side gerenderde paginatie-URL’s) naast de JavaScript-infinite scroll. Googlebot voert mogelijk de client-side scroll-events niet uit, waardoor artikelen voorbij de eerste viewport onvindbaar worden. Door traditionele paginatie-URL’s aan te bieden, wordt diepere content opnieuw toegankelijk voor crawling, vergroot je de kans dat die pagina’s opnieuw in de index worden opgenomen en breng je de Drift Score weer terug naar het niveau van vóór de migratie.
✅ Better approach: Segmenteer de score op directory-, URL-patroon- of CMS-template-niveau. Stel per segment afzonderlijke drempelwaarden in en maak automatische waarschuwingen aan wanneer een segment in twee opeenvolgende crawls meer dan 5 % afwijkt van zijn basislijn.
✅ Better approach: Stem bronnen en tijdframes op elkaar af: haal serverlogs, crawlerdata en de GSC Index Status binnen hetzelfde 24-uursvenster op. Automatiseer de extractie via de API en koppel vervolgens de URL’s met een unieke hash voordat je drift berekent.
✅ Better approach: Implementeer een quarantaineworkflow: markeer verdachte URL’s, test oplossingen in de stagingomgeving en rol noindex-tags pas uit nadat een trend van twee weken bevestigt dat de afwijking aanhoudt. Monitor het verkeer en de crawlstatistieken gedurende een extra crawlcyclus voordat je de blokkade permanent maakt.
✅ Better approach: Koppel elke URL-klasse aan de bedrijfswaarde (sales, leadgeneratie, support deflection – vermindering van supporttickets). Stel indexatie-KPI’s in voor uitsluitend klassen met hoge waarde en sluit duplicaten met lage waarde bewust uit of consolideer ze via canonical tags, 301-redirects of regels voor parameterafhandeling.
Get expert SEO insights and automated optimizations with our platform.
Start Free Trial