SEO-checklist na de lancering

Lida Stepul
Lida Stepul
14 min read

Een site lanceren voelt fantastisch, maar slechts voor vijf minuten. Daarna valt de stilte.

Geen verkeer. Geen rankings. Alleen een glimmende nieuwe website die ronddobbert in Google’s enorme, onverschillige oceaan.

Dit is waar de meeste teams de mist ingaan: ze behandelen SEO als een item op de pre-launch-checklist, iets wat je “instelt en vergeet” zoals een favicon. Maar na de lancering begint het echte SEO-werk pas. Dan gaat Google indexeren, klikken gebruikers rond en wordt elke omissie een zichtbaarheid sprobleem.

Deze checklist is geen motiverende peptalk of generieke “best practices”-lijst. Het is een fieldmanual voor de dagen en weken na je site-livegang. De concrete acties die ervoor zorgen dat je content verschijnt, je pagina’s worden geïndexeerd en je rankings niet kelderen.

Gewoon praktische, vaak vergeten stappen die het verschil maken tussen sites die gestaag verkeer opbouwen en sites die verdwijnen in het niets.

Verifieer je site in Google Search Console

We beginnen met de meest basale – en het vaakst overgeslagen – stap: ervoor zorgen dat Google weet dat je site bestaat en toestemming heeft om ‘m te crawlen.

Zonder Google Search Console doe je geen SEO. Dan hoop je alleen maar op het beste.

Richt het correct in

Ga naar Google Search Console en voeg je site toe als een Domeineigenschap. Zo krijg je volledig inzicht in alle URL-varianten — www, non-www, http, https en subdomeinen. Gebruik bij voorkeur DNS-verificatie. Ja, het kost vijf extra minuten. Doe het toch.

Dien na verificatie je sitemap in. Ga naar Indexering → Sitemaps, plak je sitemap-URL (meestal https://yourdomain.com/sitemap.xml) en klik op verzenden.

Is je sitemap vervuild met redirects, 404’s of testpagina’s? Los dat eerst op. Een schone sitemap = sneller en beter crawlen.

Controleer het dekkingsrapport

Hier vertelt Google wat het met je pagina’s doet en waar het misgaat.

Ga naar Indexering → Pagina’s. Je ziet:

  • Geïndexeerde pagina’s: staan live in Google’s index.
  • Niet geïndexeerd: meestal de probleemzone. Klik op deze tab om de redenen te zien.

Let op:

  • Pagina’s met noindex (vaak een overblijfsel van staging)
  • URL’s geblokkeerd door robots.txt
  • Soft 404’s of redirectfouten
  • Canonical-tags die verwijzen naar andere domeinen of testomgevingen

Eén verkeerde instelling kan stilletjes de helft van je site ont-indexeren.

Kies één canonieke URL en houd je eraan

Bepaal of je site www gebruikt of niet. En gebruik altijd https. Zorg vervolgens dat alles — sitemaps, interne links, redirects, canonical-tags — consequent is.

Waarom dit belangrijk is: Google ziet https://www.yoursite.com en http://yoursite.com als aparte entiteiten. Regel je dit niet, dan splitst je linkwaarde en wordt indexatie rommelig.

Extra sanity-check

Gooi dit in Google:

site:yourdomain.com

Dit toont welke pagina’s Google nu in de index heeft.

Lijkt het aantal verdacht laag, dan is je site deels niet geïndexeerd. Is het veel te hoog, dan pakt Google mogelijk duplicaten, URL’s met parameters of testomgevingen op die je vergeten bent te blokkeren.

Google Search Console is de bron van de waarheid voor wat Google wél en níet ziet. Richt het goed in, maak je sitemap schoon en los dekkingsproblemen op. Anders ben je simpelweg onzichtbaar, en niet op een coole stealth-manier. Gewoon… afwezig.

Crawl de live-site (niet je staging-kopie)

Je hebt de site vóór lancering getest. Mooi. Vergeet dat nu en crawl de live-versie.

Waarom? Zodra de site publiek is, breekt er van alles: redirects falen, dev-tags blijven staan en “tijdelijke” fixes worden permanente SEO-sabotage.

Je moet een verse crawl draaien op productie. Niet uit het hoofd. Niet via het CMS-dashboard. Een échte crawl met serieuze software.

Gebruik een echte crawler

Tools als Screaming Frog, Sitebulb of Ahrefs Site Audit zijn hier je beste vrienden. Ze bootsen na hoe zoekmachines je site doorlopen en leveren een rapport van wat werkt en wat stuk is.

Waar je op let:

Probleem Waarom het telt
Interne 404-links Doodlopende links verspillen crawlbudget en verpesten UX.
Redirectketens Vertragen crawls en verdunnen linkwaarde.
Weespagina’s Pagina’s zonder interne links zijn onzichtbaar voor crawlers.
No-index-tags Voorkomen stille indexatie – vaak vergeten na launch.
Canonical-problemen Verwijzen naar verkeerde URL’s of staging-domeinen.

Tip: Crawl niet alleen de homepage. Laat de crawler site-wide volgen. En respecteer robots.txt, tenzij je juist test wat geblokkeerd is.

Post-launch rommel spotten

Zo vind je ook:

  • Rest-URL’s van staging (/test-page, /old-version, /dev-home)
  • URL’s met UTM- of trackingparameters die de index vervuilen
  • HTML-meta-tags in “draft-modus” (<meta name="robots" content="noindex, nofollow">)

Je wilt niet dat Google troep indexeert. En je team wil geen links naar kapotte pagina’s delen twee weken na lancering.

Sanity-checklist

Ga pas verder als je crawlrapport niet toont:

  • Meer dan één redirect per URL
  • Pagina’s met statuscode 4xx of 5xx
  • No-index-tags op pagina’s die wél moeten ranken
  • Dubbele title-tags en meta-descriptions

Fix eerst het voor de hand liggende. Prioriteer op crawldiepte: hoe dieper, hoe lager de prioriteit, tenzij je pricing-pagina vijf klikken diep verstopt zit.

Bevestig indexatie van kernpagina’s

Je site is live. Je sitemap is ingediend. Maar indexeert Google de pagina’s die ertoe doen?

Verbazingwekkend veel SEO-mislukkingen na launch komen hierop neer: de site is technisch live, maar kernpagina’s – product, pricing, blogs – staan niet in Google’s index. En zonder indexatie bestaan ze niet. Niet voor gebruikers. Niet voor zoekmachines.

Stap 1: Snelcheck met “site:”-search

Typ in Google:

site:yourdomain.com

Dit geeft een ruwe lijst van geïndexeerde pagina’s. Zie je 5 resultaten terwijl je sitemap 85 URL’s bevat? Probleem. Zie je 3.000 terwijl je site maar 120 pagina’s heeft? Ook probleem.

Je zoekt een gezond aantal dat overeenkomt met je verwachting – zonder duplicaten, testpagina’s of spookcontent.

Stap 2: URL-inspectietool

Open Google Search Console en gebruik de URL-inspectietool. Plak je belangrijkste URL’s één voor één in.

Je ziet iets als:

Veld Controlepunt
Indexstatus Moet melden: URL staat op Google. Alles anders vereist onderzoek.
Dekkingstype Moet zijn: Ingediend en geïndexeerd. “Ontdekt – niet geïndexeerd” duidt vaak op kwaliteitsproblemen.
Canonieke URL Moet overeenkomen met je bedoeling, niet met een staging-URL of alternatieve versie.

Check je:

  • Homepage
  • Product-/dienstpagina’s
  • Pricing
  • Blogoverzicht en key-artikelen
  • Contactpagina

Is één hiervan niet geïndexeerd? Dan is er waarschijnlijk een no-index, robots-block, zwakke interne linking of te magere content.

Stap 3: Prioriteer wat Google moet indexeren

Niet alles hoeft in de index. Bedankpagina’s, admin-logins, tracking-URL’s? Blokkeer ze. Maar als een pagina:

  • Crawlbaar is
  • Publiek staat
  • Waarde biedt of op zoekintentie mikt

…dan moet ‘ie geïndexeerd worden. Zo niet, zoek snel uit waarom.

Wat indexatieproblemen meestal betekenen

Symptoom Waarschijnlijke oorzaak
“Gecrawld – niet geïndexeerd” Content te zwak of duplicaat
“Geblokkeerd door robots.txt” Robots-bestand te agressief
“Uitgesloten door ‘no-index’” No-index-tag vanuit dev-fase
Google indexeert een vreemde versie Slechte canonical-setup of dubbele paden

Ga pas verder als je money-pages in de index staan en er correct uitzien. Niet alleen de homepage; de pagina’s die verkeer, leads en omzet opleveren.

Audit title-tags en meta-descriptions

Een week na lancering: zoek je bedrijfsnaam in Google. Wat verschijnt er?

Als het zoiets is als:

Home – YourSite

Just another WordPress site

…dan heb je werk te doen.

Titels en meta-descriptions zijn niet optioneel

Zoekmachines gokken niet simpelweg wat je pagina is (ze kunnen het, maar dat wil je niet). Je title-tag is de kop in de SERP. Je meta-description is de pitch.

Verpruts je ze, dan:

  • Leiden je rankings eronder.
  • Keldert je CTR.
  • Lijk je onprofessioneel, vooral als “Home” of “Welkom op onze website” verschijnt.

Fix het voor de hand liggende eerst

Begin met de meest zichtbare pagina’s:

  • Homepage
  • Product-/dienstpagina’s
  • Pricing
  • Blogartikelen
  • Contact/over-ons

Vraag je af:

  • Is de title-tag uniek?
  • Bevat hij een relevant zoekwoord zonder spammy te klinken?
  • Is de meta-description overtuigend of generieke boilerplate?

Voorbeeld vóór/na:

Pagina Slecht Beter
Homepage Home – YourSite Betaalbare CRM-software voor kleine teams – YourSite
Blog Blog – YourSite Insights over schaalbare early-stage SaaS – YourSite Blog
Contact Contact – YourSite Praat met Sales of Support – Neem contact op met YourSite

Houd titels onder ±60 tekens, meta-descriptions onder ±155. Herschrijft Google ze, dan waren ze waarschijnlijk niet goed genoeg.

Gebruik tools voor snelheid

  • Screaming Frog: Crawl en exporteer alle title/meta-data.
  • SEOJuice: Audit live-titels en meta’s, markeer duplicaten en onder-optimalisatie.
  • Ahrefs / SEMrush / Sitebulb: Vind ontbrekende, dubbele of over-ge-keyword-te tags.
  • Google Search Console → Prestatie: Zie pagina’s met veel impressies maar weinig klikken; meestal titels/meta’s die niet overtuigen.

Veelgemaakte fouten

  • Dubbele titels (vooral bij blogs)
  • Generieke meta’s (“Welkom op onze website” verkoopt niets)
  • Keyword-spam (Google herschrijft en CTR daalt)
  • Titels die halverwege afkappen door te veel tekens

Ruim redirects op

Nieuwe site? Nieuwe URL-structuur. Dus redirects. Veel redirects.

De meeste teams zetten ze snel-en-vuil op voor de lancering. Daarna vergeten ze ze. Zo ontstaan redirectketens, loops of doodlopende paden – funest voor crawl-efficiëntie en linkwaarde.

Actiepunten

  • 301 voor alle oude URL’s die veranderden
  • Vervang interne links die via een redirect lopen door directe links
  • Elimineer redirectketens (A → B → C) en maak er A → C van

Check dit:

Probleem Waarom het telt
Redirectketens Verspillen crawlbudget, vertragen laadtijd, verdunnen autoriteit
Redirectloops Google kan ze niet volgen; gebruikers zien errors
Redirects naar 404’s Sturen crawlers en gebruikers het zwarte gat in

Test sitesnelheid en Core Web Vitals

Google rankt niet alleen op content. Als je site laadt alsof het 2009 is, lig je eruit.

Core Web Vitals is Google-jargon voor:

Laadt je site snel, blijft hij stabiel en reageert hij vlot, vooral op mobiel?

Wat testen

Gebruik deze tools:

  • PageSpeed Insights
  • WebPageTest.org
  • Chrome → DevTools → Lighthouse-tab

Focus op deze drie metrics:

Metric Wat het meet Doel
LCP (Largest Contentful Paint) Snelheid waarmee hoofdcontent laadt < 2,5 s
FID (First Input Delay) Tijd tot gebruikersinteractie < 100 ms
CLS (Cumulative Layout Shift) Visuele stabiliteit tijdens laden < 0,1

Snelle winst

  • Comprimeer en verklein afbeeldingen
  • Stel niet-kritische JavaScript uit
  • Activeer lazy-loading
  • Kies een snelle, betrouwbare host (je €3/maand-pakket redt het niet)
  • Cache alles wat kan

⚠️ Staar je niet blind op 100/100-scores. Focus op wat echte gebruikers merken, vooral mobiel.

Als je site voor jou al sloom voelt, is het rampzalig voor gebruikers op een mid-range Android met café-wifi. Fix dat voor je over backlinks nadenkt.

Controleer structured data (schema)

Structured data helpt Google begrijpen wat je pagina’s zijn, niet alleen wat ze zeggen.

Je voegt het toe zodat Google je pricing-pagina niet ziet als blogpost of je auteursbio als productcontent.

Wat toevoegen (minimum)

  • Organization-schema (site-breed): naam, logo, socials
  • Breadcrumb-schema: voor nette navigatie in zoekresultaten
  • Product-, Article- of FAQ-schema: afhankelijk van contenttype

Beperk je tot wat relevant is. Voeg niet elk schema-type toe omdat een plugin het aanbiedt.

Tools om te testen

  • Google Rich Results Test
  • Schema Markup Validator

Loop je toppagina’s erdoor. Let op:

  • Errors (breken enhanced features)
  • Warnings (niet altijd kritiek, wel bekijken)
  • Irrelevante of overmatige markup (ja, Google merkt het)

Veelvoorkomende fouten

Fout Waarom het schaadt
Schema toevoegen dat niet overeenkomt met zichtbare content Lijkt spammy — Google kan alles negeren
Alles als “FAQ” markeren Helpt niet zonder echte Q&A’s
JSON-LD kopiëren/plakken zonder aanpassen Leidt tot mismatch en ongeldige markup

Structured data laat slechte content niet ranken, maar maakt goede content duidelijker en soms aantrekkelijker in search.

Herbekijk interne linking en navigatie

De site is live. Mooi. Nu checken of gebruikers (én crawlers) je content kunnen vinden zonder kaart en kompas.

Interne links bepalen hoe Google pagina’s ontdekt, waardeert en rankt. Ze sturen ook de gebruikersflow: is die kapot, dan is je funnel kapot.

Wat fixen

  • Weespagina’s: zonder interne links zijn ze onzichtbaar, behalve via sitemap.
  • Verstopte pagina’s: 4+ klikken tot iets belangrijks = te diep.
  • Inconsistente anchortekst: “klik hier” helpt niet. Gebruik beschrijvende tekst.
  • Footer-spam: elke pagina linkt naar alles? Opruimen.

Waar focussen

  • Link van high-traffic naar low-visibility pagina’s (bijv. homepage → nieuwste blogpost)
  • Link gerelateerde blogs onderling met contextuele links
  • Zorg dat de hoofdnavigatie prioriteitspagina’s toont, niet alleen wat in het menu past

Pro-tip

Run een crawl en sorteer op “Inlinks”. Hebben key-pagina’s 0–2 interne links, dan ranken ze waarschijnlijk niet – en zullen ze dat ook niet.

Vertrouw niet alleen op de sitemap. Interne links tonen Google wat jij belangrijk vindt. Maak het duidelijk.

Test opnieuw alle CTA’s, formulieren en conversie-events

SEO brengt verkeer. Maar als je calls-to-action, formulieren of tracking niet werken, verhoog je alleen de bounce rate.

Na livegang breekt er van alles: scripts falen, formulieren stoppen, GA-tags verdwijnen bij een last-minute push. Je merkt het pas als conversies opdrogen.

Wat handmatig checken

  • Alle CTA’s: klik elke knop. Echt elke. Vooral mobiel.
  • Contact- en leadformulieren: verzenden ze? Mailen ze bevestigingen? Worden inzendingen gelogd?
  • Bedankpagina’s: bestaan ze? Zijn ze indexeerbaar? (Hint: liever niet.)
  • Chat-widgets: werken ze nog op productie?
  • Nieuwsbriefsign-ups: synchroniseren ze met je mailinglijst?

Tracking of giswerk?

Controleer of analytics correct firing:

  • GA4-events: worden key-acties gemeten (form_submit, contact_click, purchase)?
  • Google Tag Manager: gebruik Preview/Debug vóór je iets aanneemt
  • Heatmaps: laden de scripts – Hotjar, Microsoft Clarity, etc.?

Bonus sanity-check

Laat je CRM of e-mailtool na launch nul leads zien? Dat is geen toeval. Er is iets stuk.

Track niet alleen bezoeken, track outcomes. Anders ziet je SEO-rapport er top uit terwijl je pipeline stilletjes sterft.

Monitor prestaties & rankings wekelijks (niet obsessief)

Verkeer stroomt binnen. Iedereen checkt Google één keer. Daarna… niets.

SEO is geen one-click-install; het vergt monitoring – maar niet de soort die je maandagochtend opslokt met 15 tabbladen en hoofdpijn.

Wat wekelijks volgen (niet elk uur)

Kijk naar trends, niet fluctuaties:

  • Impressies en klikken:

    → GSC → Prestatie → filter op pagina of query

    → Krijgen key-pagina’s meer zichtbaarheid?

  • Gemiddelde positie:

    → Volg branded en non-branded keywords

    → Negeer kleine dips. Let op langetermijnpatronen.

  • Top-pagina’s:

    → Welke URL’s halen het meeste verkeer?

    → Zijn dat de pagina’s die je wilt laten ranken?

  • CTR:

    → Hoge impressies, lage klikken? Herzie title/meta.

SEO beloont geen paniek-checks. Stel een schema in, monitor trends en onderneem actie als er echt iets mis is, niet bij elke positie-schommeling.

Update XML-sitemap en robots.txt

Je sitemap en robots.txt zijn Google’s spiekbriefje. Maar veel teams vergeten ze na launch op te ruimen; zo worden irrelevante pagina’s geïndexeerd terwijl waardevolle genegeerd worden.

XML-sitemap: schoon en actueel

Je sitemap moet:

  • Alleen live, indexeerbare URL’s bevatten
  • 404’s, redirects, no-index-pagina’s en alles achter login uitsluiten
  • Je daadwerkelijke sitestructuur weerspiegelen, niet elke URL die je CMS uitspuwt

Dien hem (opnieuw) in via GSC → Indexering → Sitemaps. Ga er niet van uit dat hij werkt omdat hij ooit is ingediend.

Robots.txt: blokkeer je geen goud?

Open yoursite.com/robots.txt. Vraag je af:

  • Blokkeer ik iets cruciaals (/blog/, /product/)?
  • Staat er nog een Disallow: / van staging?
  • Sta ik toegang tot JS/CSS toe die nodig is voor renderen?

Snelle fixes

Probleem Fix
Sitemap bevat dode pagina’s Regenereren via CMS/plugin na opschoning
robots.txt blokkeert kritieke mappen Verwijder of pas disallow-regels aan
Sitemap niet ingediend of status “Kon niet ophalen” Controleer URL en serverrespons (moet 200 zijn)

Een sitemap en robots.txt hoeven niet fancy te zijn – alleen accuraat. Anders crawlt Google met verkeerde aanwijzingen en blijven je beste pagina’s begraven.

Stel alerts in en plan doorlopende content

Site gelanceerd. Tech gefixt. En nu?

Twee dingen:

  1. Krijg een melding als er iets breekt.
  2. Blijf publiceren zodat je site geen digitale stof vangt.

SEO-alerts instellen (zodat je niet wordt verrast)

Je hebt geen fulltime SEO nodig die dashboards aanstaart. Je moet gewoon weten wanneer het misgaat.

Stel in:

  • Index-daling → GSC-mailnotificaties
  • Verkeersdip → Ahrefs/SEMrush alerts bij drempeloverschrijding
  • 404-monitor → via CMS, Ahrefs of uptime-tool zoals UptimeRobot
  • Servererrors 5xx → laat dev-team logs volgen na deploy

Geen nieuws is goed nieuws. Maar stilte kan ook betekenen: “je formulieren werken al drie weken niet.”

Bouw nu een content-pipeline

Grootste SEO-killer na launch? Geen nieuwe content. Je site stagneert, rankings vlakken af, Google verliest interesse.

Begin met:

  • Backlog van zoekgedreven blogposts
  • Productupdates → maak er release-notes, use-cases, FAQ’s van
  • Link-waardige content → statistieken, tools, explainers

Plan minimaal één post per maand – twee als je het meent. Voeg interne links toe. Deel het. Meet resultaten.

Je site is nooit “af”. Maar als je deze checklist doorloopt, loop je voor op 90 % van nieuwe launches.

FAQ: Post-Launch SEO

Moet ik dit allemaal direct na launch doen?

Nee. Maar hoe langer je wacht, hoe pijnlijker het wordt. Prioriteer indexatie, redirects en performance in week één. Plan de rest binnen 2–3 weken.

We gebruiken Webflow/Shopify/WordPress. Geldt dit nog steeds?

Ja. CMS’en kunnen wat taken automatiseren, maar ze fixen geen broken links, slechte content of crawl-traps. Je moet auditen wat er echt live ging.

Hoe snel zie ik resultaten?

Indexatie: dagen. Rankings: weken tot maanden. SEO start traag maar stapelt snel op, mits je fundament schoon is.

Heb ik een SEO-bureau nodig voor dit?

Niet als jij (of iemand in je team) bereid bent 4–6 uur deze checklist zorgvuldig af te gaan. Het is vooral gestructureerd gezond verstand + oog voor detail.

Wat verprutsen mensen het vaakst na launch?

No-index-tags op belangrijke pagina’s. Redirects die nergens heen leiden. Of lanceren en vervolgens wegwandelen alsof het internet het zelf wel uitvogelt.

All-in-One AI SEO Platform
Boost your sales and traffic
with our automated optimizations.
Get set up in just 3 minutes.Sign up for SEOJuice
free to start, 7 day trial

More Articles

No related articles found.

Free SEO Tools

🤖 AI FAQ Generator

Generate FAQs for your content

🖼️ Image Alt Text Suggester

Get AI-generated alt text for images

🤖 Robots.txt Generator

Create a robots.txt file for your website

🖼️ AI Image Caption Generator

Generate captions for your images using AI

🛒 E-commerce Audit Tool

Analyze and improve your e-commerce pages

🔍 Keyword Research Tool

Get keyword suggestions and search insights

🔍 Free SEO Audit

Get a comprehensive SEO audit for your website

🔐 GDPR Compliance Checker

Check your website's GDPR compliance

🔗 Broken Link Checker

Find and fix broken links on your site

🔍 Keyword Density Analyzer

Analyze keyword usage in your content