Zidentyfikuj luki w indeksowaniu, odzyskaj budżet indeksowania i chroń strony generujące przychód — zamień comiesięczne audyty w przewagę konkurencyjną dzięki precyzyjnej analizie danych.
Indexation Drift Score określa procentową różnicę między adresami URL, które chcesz mieć zaindeksowane (wersje kanoniczne w mapie witryny), a adresami URL aktualnie zaindeksowanymi przez Google. Używaj go podczas comiesięcznych audytów technicznych, aby wykrywać nadmiar w indeksie lub brak kluczowych stron, przekierowywać budżet crawlowania i chronić pozycje generujące przychody.
Indexation Drift Score (IDS) = (Zmiana liczby zaindeksowanych URL / Kanoniczne URL w mapie witryny XML) × 100. Dodatni wynik sygnalizuje index bloat (nadindeksowanie); ujemny wskazuje na index gaps (braki w indeksie). Ponieważ metryka wychwytuje różnicę między planowanym zbiorem do crawlu a faktycznym indeksem Google, IDS pełni rolę wczesnego KPI ostrzegającego o cichym wypadaniu stron generujących przychód z wyszukiwarki lub o niskiej jakości URL-ach zużywających budżet crawlowania.
Zespoły na średnim poziomie mogą postawić dashboard IDS w 2–3 sprinty:
site:example.com
+ Search Console URL Inspection API (batch).(Indexed – Canonical) / Canonical
w BigQuery lub Snowflake; harmonogram dzienny przez Cloud Functions.robots.txt
disallow dla URL-i fasetowych. Negatywny dryft? Wyślij priorytetowe URL-e do zadania Indexing API.Detalista e-commerce z listy Fortune 500 odnotował skok IDS o +23 % po migracji PIM, która zduplikowała 60 k URL-i wariantów kolorystycznych. Dzięki konsolidacji kanonicznej i ponownemu przesłaniu czystej mapy witryny:
Silniki generatywne często opierają się na sygnałach świeżości i klastrach kanonicznych przy wyborze źródeł cytowań. Czysty IDS gwarantuje, że:
Migawka 1: 49 400 ÷ 52 000 = 0,95 (95%). Migawka 2: 50 100 ÷ 60 000 = 0,835 (83,5%). Zmiana dryfu: 95% – 83,5% = –11,5 pp (punkty procentowe). Interpretacja: Witryna dodała 8 000 nowych adresów URL, jednak tylko 700 z nich zostało zaindeksowanych. Gwałtowny spadek wskazuje, że proces crawlowania nie nadąża — prawdopodobnie z powodu ubogich lub zduplikowanych szablonów, niewystarczających linków wewnętrznych do nowych sekcji bądź ograniczeń budżetu crawl. Działania natychmiastowe: przeprowadzić audyt jakości nowych adresów URL, zweryfikować tagi canonical i przesłać segmentowe mapy witryny XML dla stron priorytetowych.
Nagły wzrost liczby adresów w stanie „Odkryte – obecnie niezaindeksowane” zwiększa mianownik (całkowitą liczbę kanonicznych adresów URL) bez zwiększania licznika (zaindeksowanych adresów URL), przez co Indexation Drift Score spada. Kroki diagnostyczne: 1) Przeskanuj próbkę dotkniętych adresów URL, aby potwierdzić, że zwracają kod 200, zawierają unikalną treść i są wewnętrznie linkowane. 2) Sprawdź logi serwera, aby upewnić się, że Googlebot faktycznie pobiera te strony; jeśli nie, przeanalizuj zasady w robots.txt, nadmierną liczbę wariantów z parametrami lub zbyt długi czas odpowiedzi, które mogą zniechęcać do crawl owania. Dopiero po usunięciu przyczyn źródłowych należy wystąpić o ponowne zaindeksowanie.
Powody: 1) Usunięte strony były niskowartościowe i jednocześnie generowały niewielki ruch; pozostałe zaindeksowane strony nie zdobyły jeszcze wystarczającej liczby sygnałów rankingowych, aby awansować w wynikach SERP. 2) Pruning (przycinanie treści) zmniejszył łączny zasięg słów kluczowych; bez dodatkowych treści lub link buildingu sama wyższa efektywność indeksowania nie gwarantuje wzrostu ruchu. Kolejny wskaźnik: widoczność na poziomie segmentu (np. średnia pozycja lub share of voice dla kluczowych komercyjnych URL-i), aby sprawdzić, czy najważniejsze strony poprawiają wyniki, nawet jeśli całkowita liczba sesji jeszcze tego nie odzwierciedla.
Priorytetem jest dodanie stronicowanych, crawlable linków (rel="next"/"prev" lub adresów paginacji renderowanych po stronie serwera) obok infinite scroll opartego na JavaScripcie. Googlebot może nie wykonywać zdarzeń scrollowania po stronie klienta, dlatego artykuły poza pierwszym viewportem pozostają niewykrywalne. Zapewnienie tradycyjnych, stronicowanych adresów URL ponownie udostępnia głębszą treść do crawlowania, zwiększając szansę na ponowne włączenie tych stron do indeksu i przywrócenie Drift Score do poziomu sprzed migracji.
✅ Better approach: Podziel wynik według katalogu, wzorca URL lub szablonu CMS. Ustaw oddzielne progi dla każdego segmentu i skonfiguruj automatyczne alerty, gdy którykolwiek segment odchyli się o ponad 5 % od wartości bazowej w dwóch kolejnych crawlach.
✅ Better approach: Wyrównaj źródła i przedziały czasowe: pobierz logi serwera, dane z crawlera oraz Status indeksowania w GSC w tym samym 24-godzinnym oknie. Zautomatyzuj ekstrakcję przez API, a następnie uzgodnij adresy URL za pomocą unikalnego hasha przed obliczeniem rozbieżności.
✅ Better approach: Zaimplementuj proces kwarantanny: oznacz podejrzane adresy URL, przetestuj poprawki w środowisku staging, a tagi noindex wdrażaj dopiero wtedy, gdy dwutygodniowy trend potwierdzi, że odchylenie jest trwałe. Monitoruj ruch oraz statystyki crawlu przez kolejny cykl odwiedzin bota, zanim wprowadzisz blokadę na stałe.
✅ Better approach: Przyporządkuj każdą klasę URL do określonej wartości biznesowej (sprzedaż, generacja leadów, redukcja obciążenia wsparcia). Ustal KPI indeksacji wyłącznie dla klas o wysokiej wartości, a duplikaty o niskiej wartości celowo wykluczaj lub konsoliduj, wykorzystując tagi canonical, przekierowania 301 bądź reguły obsługi parametrów.
Get expert SEO insights and automated optimizations with our platform.
Start Free Trial