Liste de contrôle SEO post-lancement

Mettre un site en ligne procure une satisfaction certaine… pendant environ cinq minutes. Ensuite, c’est le silence radio.
Aucun trafic. Aucun classement. Juste un joli site flambant neuf qui flotte dans l’océan vaste et indifférent de Google.
Voici l’erreur la plus fréquente : considérer le SEO comme une simple tâche de pré-lancement, à cocher puis à oublier, comme un favicon. Or, c’est après la mise en production que le véritable travail SEO commence. C’est là que Google indexe, que les utilisateurs cliquent et que la moindre négligence devient un problème de visibilité.
Cette checklist n’est ni un discours de motivation ni un énième « best practice ». C’est un manuel de terrain pour les jours et semaines qui suivent la mise en ligne. Les actions concrètes à mener pour que votre contenu apparaisse, que vos pages soient indexées et que vos positions ne dégringolent pas.
Rien que des étapes pratiques, souvent négligées, qui distinguent les sites qui gagnent tranquillement du trafic de ceux qui disparaissent dans le néant.
Vérifiez votre site avec Google Search Console
Commençons par l’étape la plus basique – et la plus souvent zappée : s’assurer que Google sait que votre site existe et qu’il a l’autorisation de le crawler.
Sans Google Search Console, vous ne faites pas du SEO ; vous comptez sur la chance.
Configurez-la correctement
Rendez-vous sur Google Search Console et ajoutez votre site en tant que propriété de type « Domaine ». Vous aurez ainsi une visibilité complète sur toutes les variantes d’URL : www
, non-www
, http
, https
et sous-domaines. Utilisez la vérification DNS si possible. Oui, cela prend cinq minutes de plus. Faites-le quand même.
Une fois la propriété vérifiée, soumettez votre sitemap. Option : Index → Sitemaps. Collez l’URL de votre sitemap (généralement https://yourdomain.com/sitemap.xml
) et validez.
Si votre sitemap déborde de redirections, de 404 ou de pages de test, nettoyez-le d’abord. Un sitemap propre = un crawl plus rapide et plus efficace.
Contrôlez le rapport de couverture
C’est là que Google vous indique ce qu’il fait de vos pages et où ça coince.
Allez dans Index → Pages. Vous verrez :
- Pages indexées : présentes dans l’index de Google.
- Non indexées : souvent la zone à problèmes. Cliquez pour connaître la raison.
Surveillez notamment :
- Pages marquées
noindex
(souvent un reste du staging) - URLs bloquées par
robots.txt
- Soft 404 ou erreurs de redirection
- Balises canonicals pointant vers d’autres domaines ou environnements de test
Un seul mauvais réglage ici peut dé-indexer discrètement la moitié de votre site.
Choisissez une URL canonique et tenez-vous-y
Décidez si votre site utilise www
ou non, et imposez toujours le https
. Puis assurez-vous que tout – sitemaps, liens internes, redirections, balises canonicals – reste cohérent.
Pourquoi ? Google considère https://www.yoursite.com
et http://yoursite.com
comme deux entités distinctes. Sans contrôle, l’autorité des liens se dilue et l’indexation se complique.
Contrôle de bon sens
Saisissez dans Google :
site:yourdomain.com
Vous verrez les pages actuellement indexées.
Si le nombre est étrangement bas, votre site est peut-être partiellement indexé. S’il est beaucoup trop élevé, Google ramasse sans doute des doublons, des URLs à paramètres ou un environnement de test que vous avez oublié de bloquer.
Google Search Console est la source de vérité sur ce que Google voit (ou non). Configurez-la correctement, nettoyez votre sitemap et corrigez les problèmes de couverture. Sinon, vous êtes invisible – et pas dans le bon sens du terme. Juste… absent.
Crawler le site en production (pas la préproduction)
Vous avez testé le site avant le lancement ? Bravo. Oubliez tout et crawlez la version live.
Pourquoi ? Une fois public, tout peut casser : redirections bancales, balises de dev oubliées, « patchs temporaires » devenus sabotages SEO permanents.
Lancez un crawl frais sur la prod. Pas de mémoire, pas depuis le back-office du CMS : un vrai crawl avec un logiciel dédié.
Utilisez un crawler digne de ce nom
Des outils comme Screaming Frog, Sitebulb ou Ahrefs Site Audit sont vos alliés. Ils simulent la navigation d’un moteur, listant ce qui fonctionne et ce qui casse.
Ce que vous cherchez :
Problème | Pourquoi c’est important |
---|---|
Liens internes cassés (404) | Des impasses gaspillent le crawl budget et ruinent l’expérience utilisateur. |
Chaînes de redirection | Ralentissent le crawl et diluent l’autorité. |
Pages orphelines | Sans liens internes, elles sont invisibles pour les robots. |
Balises no-index | Empêchent l’indexation en silence. Fréquentes après lancement. |
Problèmes de canonical | Pointent vers de mauvaises URLs ou vers l’environnement de test. |
Astuce : ne crawlez pas que la page d’accueil. Laissez le crawler suivre tous les liens. Et qu’il respecte votre robots.txt, sauf si vous testez justement ce qui est bloqué.
Repérez les déchets post-lancement
C’est aussi le moment de trouver :
- Anciennes URLs de staging (ex.
/test-page
,/old-version
,/dev-home
) - URLs avec paramètres UTM ou tracking qui polluent l’index
- Balises meta laissées en « draft » (
<meta name="robots" content="noindex, nofollow">
)
Vous ne voulez pas que Google indexe des déchets. Et encore moins que votre équipe envoie des liens cassés deux semaines après la mise en ligne.
Checklist de bon sens
Avant d’avancer, vérifiez que votre rapport ne montre pas :
- Plus d’une redirection par URL
- Pages en 4xx ou 5xx
- Pages no-index qui ne devraient pas l’être
- Titres et meta descriptions dupliqués
Corrigez d’abord l’évident. Priorisez selon la profondeur : plus la page est profonde, plus la priorité baisse, sauf si votre page tarifaire se cache cinq clics plus loin.
Confirmez l’indexation des pages clés
Le site est en ligne. Le sitemap est soumis. Mais Google indexe-t-il vraiment les pages qui comptent ?
Un nombre surprenant d’échecs SEO post-lancement vient de là : le site est techniquement en ligne, mais les pages produit, tarifs ou articles ne sont pas indexées. Non indexées = inexistantes. Ni pour l’utilisateur, ni pour le moteur.
Étape 1 : contrôle rapide via « site: »
Dans Google, tapez :
site:yourdomain.com
Vous obtenez une vue approximative des pages indexées. S’il y en a 5 alors que votre sitemap en compte 85, problème. S’il y en a 3 000 pour un site de 120 pages, problème aussi.
Cherchez une fourchette cohérente, conforme à vos attentes, sans doublons ni pages fantômes.
Étape 2 : outil d’inspection d’URL
Dans Google Search Console, ouvrez l’outil d’inspection. Collez vos URLs les plus importantes une par une.
Vous verrez quelque chose comme :
Champ | À vérifier |
---|---|
Statut d’indexation | Doit indiquer : URL sur Google. Tout autre message demande enquête. |
Type de couverture | Doit être : Envoyée et indexée. Découverte – non indexée ? Google l’a vue mais n’a pas voulu l’indexer : qualité en cause. |
URL canonique | Elle doit correspondre à celle prévue, pas à une URL de staging. |
Contrôlez :
- Page d’accueil
- Pages produit/service
- Tarifs
- Blog et articles clés
- Contact
Si l’une d’elles n’est pas indexée, suspectez un no-index, un blocage robots.txt, un maillage interne faible ou un contenu jugé faible.
Étape 3 : priorisez ce que Google doit indexer
Toutes les pages n’ont pas vocation à être indexées : pages de remerciement, logins admin, URLs de tracking ? Bloquez-les. Mais si une page est :
- Crawlable
- Publique
- Porteuse de valeur ou cible une intention de recherche
…alors elle doit être indexée. Sinon, trouvez vite pourquoi.
Signification des problèmes d’indexation
Symptôme | Cause probable |
---|---|
« Crawlée – non indexée » | Contenu faible ou dupliqué |
« Bloquée par robots.txt » | Robots.txt trop restrictif |
« Exclue par ‘no-index’ » | Balise no-index oubliée du dev |
Version étrange indexée | Mauvaise canonical ou chemins en double |
Avant de poursuivre : vérifiez que vos pages business sont indexées et s’affichent comme prévu. Pas seulement la home : les pages qui génèrent trafic, leads et conversions.
Audit des balises titre et meta descriptions
Une semaine après le lancement, cherchez le nom de votre entreprise sur Google. Que voyez-vous ?
Si c’est quelque chose comme :
Home – YourSite
Just another WordPress site
…il y a du boulot.
Les titres et meta descriptions ne sont pas optionnels
Les moteurs ne se contentent pas de deviner le sujet de votre page (ils le peuvent, mais mieux vaut éviter). La balise titre est le titre dans les résultats ; la meta description, votre pitch.
Mal rédigées :
- Vos positions souffrent.
- Votre CTR s’effondre.
- Vous paraissez amateur avec un « Home » ou « Bienvenue » en SERP.
Commencez par l’évident
Vérifiez les pages les plus visibles :
- Accueil
- Pages produit ou service
- Tarifs
- Articles de blog
- Contact / À propos
Posez-vous les questions :
- Le titre est-il unique ?
- Contient-il un mot-clé pertinent sans ressembler à du spam ?
- La meta description est-elle engageante ou juste du copier-coller ?
Exemple avant / après :
Page | Mauvais | Meilleur |
---|---|---|
Accueil | Home – YourSite | CRM abordable pour petites équipes – YourSite |
Blog | Blog – YourSite | Conseils pour scaler un SaaS early-stage – Blog YourSite |
Contact | Contact – YourSite | Parlez à nos équipes ventes ou support – Contactez YourSite |
Gardez les titres sous ~60 caractères, les descriptions sous ~155. Si Google les réécrit, c’est souvent que les vôtres sont perfectibles.
Accélérez avec les bons outils
- Screaming Frog : exportez titres/meta dans un tableur.
- SEOJuice : audit live, détecte duplications et pages sous-optimisées.
- Ahrefs / SEMrush / Sitebulb : repèrent duplications, oublis ou bourrage de mots-clés.
- Google Search Console → Performance : identifiez les pages à impressions sans clics.
Erreurs fréquentes à éviter
- Titres dupliqués (surtout sur le blog)
- Descriptions génériques (« Bienvenue » ne vend rien)
- Bourrage de mots-clés (Google réécrira… et votre CTR chutera)
- Titres tronqués faute d’avoir vérifié la longueur
Nettoyez vos redirections
Nouveau site ? Nouvelles URLs. Donc redirections, souvent nombreuses.
La plupart des équipes les configurent à la va-vite pour lancer, puis les oublient : chaînes, boucles, impasses… qui grèvent le crawl et l’autorité.
À faire
- 301 toutes les anciennes URLs modifiées
- Remplacez les liens internes pointant vers des redirections par la destination finale
- Supprimez les chaînes (A → B → C) via un A → C direct
Points de contrôle
Problème | Pourquoi c’est critique |
---|---|
Chaînes de redirection | Crawl budget gaspillé, temps de chargement allongé, autorité diluée |
Boucles de redirection | Google bloque ; l’utilisateur voit une erreur |
Redirections vers 404 | Robots et utilisateurs finissent dans le vide |
Vérifiez la vitesse et les Core Web Vitals
Le contenu ne suffit pas. Si votre site charge comme en 2009, vous sortez du jeu.
Les Core Web Vitals résument :
Votre site charge-t-il vite, reste-t-il stable et réactif, surtout sur mobile ?
Outils de test
- PageSpeed Insights
- WebPageTest.org
- Chrome → DevTools → onglet Lighthouse
Trois métriques à surveiller :
Métrique | Mesure | Objectif |
---|---|---|
LCP (Largest Contentful Paint) | Chargement du contenu principal | < 2,5 s |
FID (First Input Delay) | Délai avant interaction | < 100 ms |
CLS (Cumulative Layout Shift) | Stabilité visuelle | < 0,1 |
Gains rapides
- Compresser/redimensionner les images
- Désactiver le JavaScript non critique
- Activer le lazy-loading
- Choisir un hébergeur rapide (votre offre à 3 € ne suffit pas)
- Mettre en cache tout ce qui peut l’être
⚠️ Ne visez pas le 100/100 absolu. Concentrez-vous sur l’impact réel, surtout mobile.
Si le site vous paraît lent à vous, c’est un désastre sur un Android moyen avec Wi-Fi médiocre. Réglez-ça avant de chasser les backlinks.
Vérifiez les données structurées (Schema)
Les données structurées aident Google à comprendre ce que sont vos pages, pas seulement ce qu’elles disent.
L’objectif : éviter que Google prenne votre page tarifs pour un article de blog ou votre bio auteur pour un produit.
À ajouter (minimum)
- Schema Organization (site-wide) : nom, logo, réseaux sociaux
- Schema Breadcrumb : navigation claire en SERP
- Schema Product, Article ou FAQ selon le contenu
Restez pertinent : n’ajoutez pas tout le catalogue schema parce qu’un plugin le propose.
Outils de test
- Google Rich Results Test
- Schema Markup Validator
Testez vos pages principales. Vérifiez :
- Erreurs (interdisent les résultats enrichis)
- Avertissements (pas toujours critiques, mais à examiner)
- Marquage excessif ou hors sujet (oui, Google le voit)
Erreurs courantes
Erreur | Impact |
---|---|
Schema non aligné avec le contenu visible | Considéré comme spam ; Google peut tout ignorer |
Tout marquer en « FAQ » | Inutile sans vraies questions/réponses |
Copier-coller de JSON-LD non édité | Données incohérentes, balisage invalide |
Le schema ne fera pas ranker un mauvais contenu, mais il clarifie et peut embellir un bon contenu.
Révisez le maillage interne et la navigation
Le site est live ? Parfait. Reste à vérifier si utilisateurs et robots peuvent trouver le contenu sans boussole.
Les liens internes guident Google dans la découverte et la hiérarchie de vos pages. Ils guident aussi vos utilisateurs ; si le chemin casse, votre tunnel aussi.
À corriger
- Pages orphelines : sans liens internes, elles dépendent d’une soumission manuelle
- Pages enfouies : 4 clics ou plus pour quelque chose d’important ? Trop profond
- Anchors vagues : « Cliquez ici » n’aide pas. Préférez « voir nos tarifs », « découvrir les fonctionnalités SEO »
- Spam de footer : lier tout depuis partout est illisible. Simplifiez.
Où se concentrer
- Lier les pages à fort trafic vers celles à faible visibilité (ex. home → dernier article)
- Ajouter des liens contextuels entre articles du blog, pas juste des widgets « articles connexes »
- S’assurer que la nav principale reflète les pages prioritaires, pas seulement ce qui rentre dans le menu
Astuce pro
Faites un crawl et triez par « Inlinks ». Si des pages clés ont 0-2 liens internes, elles ne rankeront probablement pas.
Ne comptez pas sur le sitemap seul. Les liens internes montrent à Google ce qui compte pour vous. Rendez-le évident.
Re-testez tous les CTA, formulaires et conversions
Le SEO envoie du trafic. Si vos call-to-action, formulaires ou suivis ne fonctionnent pas, votre taux de rebond explose.
Post-lancement, tout peut casser : scripts, formulaires, balises GA retirées en urgence. Vous ne le saurez qu’en voyant les conversions chuter.
À vérifier (manuellement)
- Tous les CTA : cliquez sur chaque bouton, surtout sur mobile
- Formulaires de contact/lead : envoient-ils ? Confirment-ils ? Enregistrent-ils ?
- Pages de remerciement : existent-elles ? Sont-elles indexables ? (Indice : non.)
- Chat : souvent ok en staging, cassé en prod
- Inscription newsletter : la synchro avec la liste fonctionne-t-elle ?
Suivi ou devinette ?
Assurez-vous que votre analytics déclenche bien :
- Événements GA4 : form_submit, contact_click, purchase…
- Google Tag Manager : mode preview/debug avant de croire les chiffres
- Heatmaps : scripts Hotjar, Clarity, etc. chargés
Contrôle de bon sens
Si votre CRM ou outil email affiche zéro inscription post-lancement, ce n’est pas un hasard. C’est cassé.
Ne suivez pas que les visites, suivez les résultats. Sinon, votre rapport SEO brillera tandis que votre pipeline meurt en silence.
Surveillez performances et positions chaque semaine (sans obsession)
Le trafic arrive. Tout le monde regarde Google une fois. Puis… plus rien.
Le SEO n’est pas un bouton on/off ; il se pilote. Mais inutile d’y passer vos lundis matins avec 15 onglets et un mal de crâne.
À suivre (hebdo, pas horaire)
Ciblez les tendances, pas les fluctuations :
-
Impressions et clics :
→ GSC → Performance → filtre par page ou requête
→ Vos pages clés gagnent-elles en visibilité ?
-
Position moyenne :
→ Suivez vos mots-clés marque et hors-marque
→ Ignorez les micro-baisses, regardez la tendance long terme.
-
Top pages :
→ Quelles URLs captent le trafic ?
→ Sont-ce celles que vous souhaitez voir ranker ?
-
CTR :
→ Impressions élevées, clics faibles ? Reprenez titres/descriptions.
Le SEO ne récompense pas la panique. Planifiez, observez, agissez quand c’est nécessaire, pas à chaque variation nocturne.
Mettez à jour sitemap XML et robots.txt
Le sitemap et le robots.txt sont l’aide-mémoire de Google pour crawler votre site. La plupart des équipes oublient de les nettoyer après le lancement : les pages inutiles se font indexer pendant que les importantes restent ignorées.
Sitemap XML : propre et à jour
Il doit :
- Inclure uniquement des URLs actives et indexables
- Exclure 404, redirections, no-index et contenu derrière login
- Refléter la structure réelle, pas tout ce que le CMS génère
Soumettez-le (ou re-soumettez-le) dans GSC : Index → Sitemaps. Ne supposez pas qu’il fonctionne sous prétexte qu’il a été soumis une fois.
Robots.txt : vérifiez les blocages critiques
Ouvrez yoursite.com/robots.txt et demandez-vous :
- Bloquez-vous quelque chose d’essentiel (
/blog/
,/product/
) ? - Un
Disallow: /
de staging traîne-t-il encore ? - Les fichiers JS/CSS nécessaires au rendu sont-ils accessibles ?
Gains rapides
Problème | Correctif |
---|---|
Sitemap contient des pages mortes | Régénérez-le via CMS ou plugin après nettoyage |
robots.txt bloque des dossiers clés | Retirez ou ajustez les règles disallow |
Sitemap non soumis ou en « Couldn’t fetch » | Vérifiez l’URL et la réponse serveur (200 obligatoire) |
Pas besoin d’un sitemap/robots fancy. Juste exacts. Sinon, Google crawle avec un mauvais plan et vos meilleures pages restent enfouies.
Configurez des alertes et prévoyez du contenu continu
Le site est lancé. La technique est propre. Et maintenant ?
Deux choses :
- Être alerté quand quelque chose casse.
- Publier régulièrement pour éviter la poussière digitale.
Mettez en place des alertes SEO (pour éviter les surprises)
Pas besoin d’un SEO à plein temps devant les dashboards. Il faut juste savoir quand ça déraille.
À configurer :
- Alertes de chute d’index → GSC, notifications email
- Alertes de baisse de trafic → Ahrefs / SEMrush, seuils sur le trafic organique
- Suivi 404 → CMS, Ahrefs ou simple monitoring type UptimeRobot
- Logs d’erreurs → si vous avez du dev, surveillez les 5xx après déploiement
Pas de nouvelles, bonne nouvelle… ou formulaire cassé depuis trois semaines.
Créez votre pipeline de contenu (maintenant)
Le plus gros tueur SEO post-lancement : absence de nouveau contenu. Le site stagne, les positions plafonnent, Google se lasse.
Démarrez avec :
- Un backlog d’articles orientés recherche
- Mises à jour produit → notes de version, cas d’usage, FAQ
- Contenu linkable → stats, outils, guides citables
Publiez au moins un article par mois. Deux si vous êtes sérieux. Ajoutez des liens internes. Partagez. Suivez les résultats.
Un site n’est jamais « terminé ». Mais si vous avez coché cette checklist, vous devancez 90 % des nouveaux lancements.
FAQ : SEO post-lancement
Dois-je tout faire immédiatement après le lancement ?
Non. Mais plus vous attendez, plus ce sera douloureux. Priorisez indexation, redirections et performances la première semaine. Planifiez le reste sur 2-3 semaines.
Nous sommes sur Webflow/Shopify/WordPress. Cela s’applique-t-il toujours ?
Oui. Les CMS gèrent une partie, mais pas les liens cassés, le mauvais contenu ou les pièges de crawl. Vous devez auditer ce qui a réellement été mis en ligne.
Dans combien de temps puis-je espérer des résultats ?
L’indexation prend quelques jours. Les positions : semaines à mois. Le SEO est lent au départ mais exponentiel si les bases sont propres.
Faut-il engager une agence SEO pour ça ?
Pas si quelqu’un dans l’équipe peut consacrer 4-6 heures à cette checklist. C’est surtout du bon sens structuré et de la rigueur.
L’erreur la plus courante post-lancement ?
Des balises no-index sur des pages importantes. Des redirections vers nulle part. Ou lancer le site puis partir en pensant qu’Internet fera le reste.
Read More
- Stratégies de réutilisation de contenu pour une portée maximale
- Utiliser les mots-clés LSI pour améliorer le SEO
- Meilleures pratiques de référencement pour les applications monopage
- Checklist d'onboarding client pour les professionnels du SEO
- L’Art de dire NON
- Du SEO au GEO : l'optimisation de la recherche devient plus intelligente