Beperk verborgen contentverlies: migreer fragmentgebaseerde assets naar crawlbare URL's en herwin rankings, crawlbudget en 20%+ orphan-page verkeer.
URL-fragmentindexering is de (inmiddels verouderde) praktijk waarbij Google alles na het “#”-teken als een unieke pagina beschouwt; omdat moderne crawlers fragmenten negeren, blijft alle content die uitsluitend via “#” wordt geladen onzichtbaar voor zoekopdrachten, dus moeten SEO-specialisten die content ontsluiten via indexeerbare paden of queryparameters om verlies van rankings en verkeer te voorkomen.
URL-fragmentindexering verwijst naar de verouderde techniek waarbij unieke content na de “#” (of “#!”) in een URL wordt getoond—bijv. example.com/page#section—en de verwachting dat Google dit als een afzonderlijk document behandelt. Sinds Google in 2015 het AJAX-crawlingschema heeft afgeschaft, verwijderen moderne crawlers fragmenten volledig. Als een Single-Page Application (SPA) of legacy-site nog steeds cruciale content uitsluitend via fragmenten laadt, is die content onzichtbaar voor zoekmachines, structured-data-parsers en AI-modellen die vertrouwen op de gerenderde, indexeerbare DOM. Voor bedrijven resulteert dit in verweesde pagina’s, een verspild crawlbudget en dalende rankings—vooral bij long-tail zoekopdrachten die vaak verkeer met hoge intentie opleveren.
E-commerce: De gefacetteerde navigatie van een mode-retailer gebruikte hashes (bijv. #?color=red). Migratie naar geparametriseerde URL’s plus SSR leverde een stijging van 28 % in non-brand organische omzet in Q4 en een toename van 43 % in long-tail ranking-keywords op.
SaaS-documentatie: Een Fortune 500 SaaS-provider serveerde elk helpartikel-fragment via React Router. Na migratie naar statische HTML-exports steeg de positie voor supportgerelateerde queries in de SERP’s van 9,2 naar 3,6, wat het aantal tickets met 12 % MoM verlaagde.
Reken op $10–30 k aan engineeringuren (40–80 uur) plus $3–5 k voor SEO-begeleiding en QA-tools. Enterprises met interne dev-teams kunnen het werk in een standaard kwartaalroadmap opnemen; agencies prijzen het als een aparte technische SEO-sprint. De terugverdientijd ligt doorgaans binnen 3–6 maanden dankzij teruggewonnen organisch verkeer en lagere SEA-uitgaven voor zoekopdrachten die eerder door fragmentblindheid verloren gingen.
Googlebot verwijdert het fragment (#) voordat hij de HTTP-aanvraag uitvoert, waardoor elke hash-gebaseerde view naar dezelfde server-side resource leidt. Omdat de crawler identieke HTML ontvangt voor https://example.com/ en https://example.com/#/pricing, beschouwt hij deze als één URL en negeert hij het fragment bij het opbouwen van de index. Om elke view zichtbaar te maken, migreer je naar History API-routing (schone paden zoals /pricing) of implementeer je server-side rendering/prerendering die unieke, crawlbare HTML op die paden teruggeeft. Met deze wijziging kan Googlebot afzonderlijke URL’s ophalen, aparte indexvermeldingen maken en elke view onafhankelijk ranken.
Scroll-to-text-fragmenten (#:~:text=) worden door Google gegenereerd, niet door je eigen markup, om gebruikers direct naar de exacte zin te laten springen die overeenkomt met hun zoekopdracht. Google indexeert nog steeds de canonieke URL (/post); het fragment wordt pas bij het klikken in de SERP-snippet toegevoegd. Daarom behandelt Google het fragment niet als een aparte resource—het blijft gekoppeld aan de ranking-signalen van de hoofdpagina. Maak dus geen pagina’s of links uitsluitend voor deze fragmenten. Verbeter in plaats daarvan de on-page semantiek (heldere koppen, bondige alinea’s, sleutelzinnen dicht bij elkaar) zodat Google algoritmisch relevante scroll-to-text-links kan genereren wanneer dit van toepassing is.
Hash-fragmenten worden niet meegestuurd in de HTTP-request—ze bestaan uitsluitend aan de clientzijde. Googlebot (en elke serverlog) toont daarom alleen de basis-URL, terwijl browsergebaseerde analytics pas na het laden van de pagina afgaan en via window.location.hash extra pseudo-pageviews zoals /#coupon kunnen registreren. Voor SEO wordt uitsluitend de basis-URL meegenomen in de ranking. Om opgeblazen pageview-aantallen of vertekende engagement-statistieken te voorkomen, configureer je je analytics-weergave om hash-fragmenten te strippen of te normaliseren, of stap je over op event-tracking in plaats van op fragmentgebaseerde pseudo-pagina’s.
Nee. Omdat Googlebot alles negeert wat na het #-teken in de request staat, verwijzen https://example.com/product?color=red en https://example.com/product?color=red#utm_campaign=summer naar dezelfde resource en delen ze één indexvermelding. Het fragment genereert dus geen duplicaatpagina’s en verwatert de link equity niet. De URL met fragment kan echter nog steeds opduiken in backlinkprofielen en analytics-rapporten, dus standaardiseer publieke links of gebruik een linkverkorter om de rapportage schoon te houden.
✅ Better approach: Gebruik queryparameters of pad-gebaseerde URL's voor afzonderlijke content. Verwijder fragmenten uit sitemaps, interne links en canonical-tags; wijs rel="canonical" naar de basis-URL zodat Google slechts één versie crawlt.
✅ Better approach: Migreer naar History API-routing of implementeer server-side rendering / dynamische rendering die volledige HTML zonder het fragment levert. Valideer met de URL-inspectietool om te controleren of de gerenderde content overeenkomt met wat gebruikers zien.
✅ Better approach: Declareer canonical-, hreflang- en sitemap-URL's altijd zonder het #fragment. Gebruik voor navigatie binnen de pagina andere methoden (bijv. anchors of ID's) in plaats van canonical-URL's met fragmenten.
✅ Better approach: Verplaats trackingparameters naar de querystring of configureer een client-side script dat het fragment herschrijft naar een queryparameter voordat de pageview-hits worden verstuurd. Controleer in analytics of sessies correct worden toegeschreven.
Ruim programmatic index bloat op om crawl budget te herwinnen, …
Beperk template-saturatie, herwin verspild crawl budget en verhoog de zichtbaarheid …
Bescherm je crawlbudget, consolideer linkwaarde en blijf de concurrentie voor …
Elimineer de verwatering van het indexbudget om crawl equity terug …
Detecteer template-overexposure, herbalanceer het crawl budget en ontsluit onbenutte intent-clusters …
Elimineer facet-indexinflatie om verspild crawlbudget terug te winnen, link equity …
Get expert SEO insights and automated optimizations with our platform.
Start Free Trial