Verdeckten Content-Verlust minimieren: fragmentbasierte Assets auf crawlbare URLs migrieren und Rankings, Crawl-Budget sowie über 20 % des Orphan-Page-Traffics zurückgewinnen.
Die URL-Fragment-Indexierung ist die (mittlerweile veraltete) Praxis, Google alles nach dem „#“ als eigene Seite interpretieren zu lassen; da moderne Crawler Fragmente ignorieren, bleibt jeglicher ausschließlich über „#“ geladener Inhalt für die Suche unsichtbar. SEOs sollten diesen Content daher über indexierbare Pfade oder Query-Parameter zugänglich machen, um Ranking- und Traffic-Verluste zu vermeiden.
URL-Fragment-Indexierung bezeichnet die veraltete Technik, einzigartigen Inhalt hinter dem „#“ (oder „#!“) einer URL – z. B. example.com/page#section – bereitzustellen und zu erwarten, dass Google ihn als eigenes Dokument behandelt. Seit Google 2015 das AJAX-Crawling-Schema abgeschafft hat, entfernen moderne Crawler Fragmente vollständig. Lädt eine Single-Page-Application (SPA) oder Alt-Site weiterhin kritische Inhalte ausschließlich über Fragmente, sind diese für Suchmaschinen, Structured-Data-Parser und KI-Modelle, die auf den gerenderten, indexierbaren DOM angewiesen sind, unsichtbar. Für Unternehmen führt das zu verwaisten Seiten, kannibalisiertem Crawl-Budget und sinkenden Rankings – besonders bei Long-Tail-Suchanfragen, die häufig Traffic mit hoher Kaufabsicht liefern.
E-Commerce: Die facettierte Navigation eines Modehändlers nutzte Hashes (z. B. #?color=red). Die Umstellung auf parametrisierte URLs plus SSR brachte im Q4 einen Zuwachs von 28 % beim organischen Non-Brand-Umsatz und 43 % mehr Long-Tail-Ranking-Keywords.
SaaS-Dokumentation: Ein Fortune-500-SaaS-Anbieter lieferte jedes Help-Article-Fragment über React Router aus. Nach der Migration zu statischen HTML-Exports stiegen Support-bezogene Suchanfragen in den SERPs von Position 9,2 auf 3,6; das Ticketvolumen sank MoM um 12 %.
Rechne mit 10–30 k $ Engineering-Aufwand (40–80 Stunden) plus 3–5 k $ für SEO-Steuerung und QA-Tools. Unternehmen mit eigenen Dev-Teams können das Projekt in eine reguläre Quartals-Roadmap einplanen; Agenturen sollten es als eigenständigen Technical-SEO-Sprint kalkulieren. Der ROI stellt sich meist innerhalb von 3–6 Monaten ein, dank zurückgewonnenem organischem Traffic und geringeren SEA-Ausgaben für Keywords, die zuvor fragmentbedingt verloren gingen.
Googlebot entfernt den Fragment-Identifier (#), bevor er die HTTP-Anfrage ausführt, sodass jede hash-basierte Ansicht auf dieselbe serverseitige Ressource aufgelöst wird. Da der Crawler für https://example.com/ und https://example.com/#/pricing identisches HTML erhält, behandelt er beide als eine einzige URL und ignoriert das Fragment beim Aufbau des Index. Um jede Ansicht separat sichtbar zu machen, migrieren Sie auf History-API-Routing (saubere Pfade wie /pricing) oder implementieren Sie Server-Side Rendering/Prerendering, das an diesen Pfaden einzigartiges, crawlbares HTML ausliefert. So kann Googlebot unterschiedliche URLs abrufen, separate Indexeinträge erzeugen und jede Ansicht unabhängig ranken.
Scroll-to-Text-Fragmente (#:~:text=) werden von Google erzeugt, nicht von Ihrem Markup, um Nutzer direkt zum Satz zu springen, der ihrer Suchanfrage entspricht. Google indexiert weiterhin die kanonische URL (/post); das Fragment wird erst beim Klick im SERP-Snippet angehängt. Daher behandelt Google das Fragment nicht als eigenständige Ressource – es bleibt an die Ranking-Signale der Hauptseite gebunden. Sie sollten keine Seiten oder Links ausschließlich für solche Fragmente erstellen. Optimieren Sie stattdessen die On-Page-Semantik (klare Überschriften, prägnante Absätze, Schlüsselphrasen in unmittelbarer Nähe), damit Google bei Relevanz algorithmisch nützliche Scroll-to-Text-Links erzeugen kann.
Hash-Fragmente werden nicht im HTTP-Request übertragen – sie existieren ausschließlich clientseitig. Googlebot (sowie jedes Server-Log) zeigt daher nur die Basis-URL an, während browserbasierte Analytics nach dem Seitenladen ausgelöst werden und über window.location.hash zusätzliche Pseudo-Pageviews wie /#coupon erfassen können. Für SEO wird ausschließlich die Basis-URL für das Ranking berücksichtigt. Um aufgeblähte Pageview-Zahlen oder verfälschte Engagement-Metriken zu vermeiden, konfiguriere deine Analytics-Ansicht so, dass Hash-Fragmente entfernt bzw. normalisiert werden, oder stelle von fragmentbasierten Pseudo-Seiten auf Event-Tracking um.
Nein. Da Googlebot alles nach dem # in der Anfrage ignoriert, verweisen sowohl https://example.com/product?color=red als auch https://example.com/product?color=red#utm_campaign=summer auf dieselbe Ressource und teilen sich einen einzigen Indexeintrag. Das Fragment erzeugt weder Duplicate Content noch verwässert es die Link Equity. Allerdings kann die URL mit Fragment weiterhin in Backlink-Profilen und Analytics-Berichten auftauchen; vereinheitlichen Sie daher öffentlich sichtbare Links oder nutzen Sie einen URL-Shortener, um das Reporting sauber zu halten.
✅ Better approach: Verwenden Sie für unterschiedliche Inhalte entweder Query-Parameter oder pfadbasierte URLs. Entfernen Sie URL-Fragmente aus Sitemaps, internen Links und Canonical-Tags; setzen Sie rel="canonical" auf die Basis-URL, damit Google nur eine Version crawlt.
✅ Better approach: Migrieren Sie auf History-API-Routing oder implementieren Sie Server-Side Rendering / dynamisches Rendering, das vollständiges HTML ohne Fragment ausliefert. Validieren Sie mit dem URL-Inspektionstool, um sicherzustellen, dass der gerenderte Inhalt dem entspricht, was Nutzer sehen.
✅ Better approach: Deklarieren Sie canonical-, hreflang- und Sitemap-URLs stets ohne das #-Fragment. Verwenden Sie für die interne Seitennavigation stattdessen andere Methoden (z. B. Anker oder IDs), anstatt canonical-URLs mit Fragment zu nutzen.
✅ Better approach: Verschiebe die Tracking-Parameter in den Query-String oder konfiguriere ein clientseitiges Skript, das das Fragment vor dem Auslösen der Pageview-Hits in einen Query-Parameter umschreibt. Überprüfe anschließend in Analytics, ob die Sitzungen korrekt zugeordnet werden.
Eliminieren Sie Template-Kannibalisierung, um Ihre Link Equity zu konsolidieren, bis …
Decken Sie Keyword-Kannibalisierung auf Template-Ebene auf, optimieren Sie Konsolidierungsentscheidungen und …
Ermitteln Sie den Sättigungspunkt, um das Crawl-Budget zu schonen, inkrementelle …
Sichern Sie sich zweistellige Steigerungen bei High-Intent-Sessions und Umsatz, indem …
Stoppen Sie den Keyword-Drift in Templates, bewahren Sie siebenstelligen Traffic …
Reduzieren Sie Template-Sättigung, holen Sie vergeudetes Crawl-Budget zurück und steigern …
Get expert SEO insights and automated optimizations with our platform.
Start Free Trial