Lista kontrolna SEO po uruchomieniu

Uruchomienie strony daje satysfakcję, ale tylko przez pierwsze pięć minut. Potem zapada cisza.
Zero ruchu. Zero pozycji. Tylko lśniąca nowa witryna dryfująca w bezkresnym, obojętnym oceanie Google.
Większość zespołów popełnia tu błąd: traktuje SEO jak punkt na liście przed premierą, coś w stylu favicony — ustaw i zapomnij. Tymczasem prawdziwa praca SEO zaczyna się po publikacji. Wtedy Google zaczyna indeksować, użytkownicy klikać, a każde niedopatrzenie zamienia się w problem z widocznością.
Ta lista kontrolna to nie motywacyjna pogadanka ani ogólna lista „dobrych praktyk”. To podręcznik terenowy na dni i tygodnie po publikacji strony. Konkretny zestaw działań, które musisz wykonać, aby treści się wyświetlały, strony były indeksowane, a pozycje nie poleciały w dół.
Same praktyczne, często pomijane kroki, które oddzielają serwisy stopniowo zwiększające ruch od tych, które znikają w nicości.
Zweryfikuj witrynę w Google Search Console
Zacznijmy od najprostszego, a zarazem najczęściej pomijanego kroku: upewnij się, że Google wie o Twojej stronie i ma prawo ją crawlować.
Jeśli nie masz Google Search Console, to nie robisz SEO. Liczysz na łut szczęścia.
Skonfiguruj ją, i to poprawnie
Wejdź do Google Search Console i dodaj swoją stronę jako właściwość typu Domain. Dzięki temu zyskasz pełny podgląd wszystkich wariantów URL — www
, non-www
, http
, https
oraz subdomen. Jeśli to możliwe, użyj weryfikacji DNS. Tak, to kolejne pięć minut. Zrób to mimo wszystko.
Po weryfikacji prześlij mapę witryny. Opcję znajdziesz w sekcji Indexing → Sitemaps. Wklej adres mapy (zwykle https://twojadomena.com/sitemap.xml
) i zatwierdź.
Jeśli mapa jest przeładowana przekierowaniami, 404-kami lub stronami testowymi, napraw to najpierw. Czysta mapa = szybsze, lepsze crawlowanie.
Sprawdź raport Pokrycia
Tu Google pokazuje, co robi z Twoimi stronami i gdzie zaczynają się kłopoty.
Przejdź do Indexing → Pages. Zobaczysz:
- Indexed pages: Strony już obecne w indeksie Google.
- Not indexed: Zwykle tu leży problem. Kliknij, by poznać powód.
Zwróć uwagę na:
- Strony oznaczone
noindex
(często pozostałość po stagingu) - Adresy zablokowane przez
robots.txt
- Soft 404 lub błędy przekierowań
- Tagi canonical wskazujące na inne domeny lub środowiska testowe
Jedno złe ustawienie może po cichu wyrzucić z indeksu połowę Twojej witryny.
Wybierz jedną kanoniczną wersję URL i trzymaj się jej
Zdecyduj, czy używasz www
, czy nie. Zawsze używaj https
. Następnie zadbaj, aby wszystko — sitemaps, linki wewnętrzne, przekierowania, tagi canonical — było spójne.
Dlaczego to ważne: Google traktuje https://www.twojastrona.com
i http://twojastrona.com
jako osobne byty. Jeśli nie kontrolujesz tego, autorytet linków się rozmywa, a indeksacja robi bałagan.
Dodatkowy test sanity
Wpisz w Google:
site: yourdomain.com
Zobaczysz, które strony Google ma aktualnie w indeksie.
Jeśli liczba wygląda podejrzanie nisko, część witryny może być poza indeksem. Jeśli z kolei jest zbyt wysoka, Google prawdopodobnie łapie duplikaty, URL-e z parametrami lub środowiska testowe, o których zapomniałeś.
Google Search Console jest jedynym źródłem prawdy o tym, co Google widzi (i czego nie widzi) w Twojej witrynie. Skonfiguruj ją poprawnie, wyczyść mapę, napraw problemy z pokryciem. Inaczej będziesz niewidoczny — i to wcale nie w fajnym trybie stealth. Po prostu… nie istniejesz.
Przecrawluj wersję produkcyjną (a nie kopię stagingową)
Testowałeś stronę przed premierą? Gratulacje. Teraz zapomnij o tym i przeskanuj wersję produkcyjną.
Dlaczego? Bo po publikacji wszystko może się posypać: przekierowania płatają figle, tagi deweloperskie zostają, a „tymczasowe” poprawki stają się stałym sabotażem SEO.
Musisz wykonać świeże crawlowanie na produkcji. Nie z pamięci, nie z panelu CMS. Prawdziwy crawl w dedykowanym narzędziu.
Użyj porządnego crawlera
Narzędzia takie jak Screaming Frog, Sitebulb czy Ahrefs Site Audit to tutaj najlepsi przyjaciele. Symulują sposób, w jaki wyszukiwarki poruszają się po stronie, i zwracają raport tego, co działa, a co jest rozwalone.
Czego szukasz:
Problem | Dlaczego to ma znaczenie |
---|---|
Uszkodzone linki wewnętrzne (404) | Ślepe zaułki marnują budżet crawl i psują UX. |
Łańcuchy przekierowań | Spowalniają crawlowanie i rozcieńczają moc linków. |
Strony osierocone | Strony bez linków wewnętrznych są niewidoczne dla crawlerów. |
Tagi no-index | Cicho blokują indeksację. Często zostają po premierze. |
Problemy z tagami canonical | Wskazują złe adresy lub domenę stagingową. |
Wskazówka: Nie skanuj tylko strony głównej. Ustaw crawler na podążanie za linkami w całej witrynie. I upewnij się, że respektuje robots.txt, chyba że testujesz blokady.
Wyłów śmieci po premierze
To moment, w którym znajdziesz także:
- Pozostałości stagingu (np.
/test-page
,/old-version
,/dev-home
) - Adresy z parametrami UTM lub innymi trackingowymi zapychające indeks
- Metatagi HTML pozostawione w „trybie roboczym” (
<meta name="robots" content="noindex, nofollow">
)
Nie chcesz, aby Google indeksował śmieci. I na pewno nie chcesz, by Twój zespół rozsyłał linki do zepsutych stron dwa tygodnie po premierze.
Lista kontrolna sanity
Zanim pójdziesz dalej, upewnij się, że raport ze skanowania nie pokazuje:
- Więcej niż jedno przekierowanie na URL
- Stron ze statusami 4xx lub 5xx
- Stron oznaczonych no-index, które powinny być w indeksie
- Zduplikowanych tagów tytułu i opisów meta
Najpierw napraw oczywiste błędy. Priorytetyzuj według głębokości: im głębiej w strukturze, tym mniejszy priorytet — chyba że Twoja strona cennikowa jest zakopana pięć kliknięć od home.
Potwierdź indeksację kluczowych stron
Strona działa. Mapę wysłałeś. Ale czy Google faktycznie indeksuje najważniejsze podstrony?
Zaskakująco wiele porażek SEO po premierze wynika z prostego faktu: serwis jest technicznie online, ale kluczowe strony — produkt, cennik, wpisy blogowe — nie znajdują się w indeksie Google. A jeśli nie są zindeksowane, dla użytkowników i wyszukiwarki nie istnieją.
Krok 1: Szybki test komendą „site:”
W Google wpisz:
site:yourdomain.com
Otrzymasz przybliżoną listę zindeksowanych stron. Jeśli widzisz 5 wyników, a mapa ma 85 URL-i, jest problem. Jeśli widzisz 3 000 wyników przy 120 podstronach, też jest problem.
Szukasz rozsądnego zakresu odpowiadającego oczekiwaniom, bez niespodzianek w postaci duplikatów, stron testowych czy widm.
Krok 2: Użyj narzędzia Inspekcja URL
Przejdź do Google Search Console i skorzystaj z Inspekcji URL. Wklejaj najważniejsze adresy jeden po drugim.
Zobaczysz coś takiego:
Pole | Co sprawdzić |
---|---|
Status indeksowania | Powinno być: URL znajduje się w Google. Każda inna informacja wymaga analizy. |
Typ pokrycia | Powinno być: Przesłano i zindeksowano. Jeśli widzisz Discovered - not indexed, Google widziało URL, ale nie zindeksowało — często problem jakości. |
Kanoniczny URL | Upewnij się, że to adres zamierzony, a nie staging lub alternatywna wersja. |
Sprawdź:
- Strona główna
- Strony produktowe/usługowe
- Cennik
- Strona bloga i kluczowe artykuły
- Kontakt
Jeśli którąkolwiek z nich brakuje w indeksie, prawdopodobnie chodzi o no-index, blokadę w robots.txt, słabe linkowanie wewnętrzne lub niską jakość treści.
Krok 3: Ustal priorytety tego, co Google powinien indeksować
Nie wszystko musi trafiać do indeksu. Strony typu „thank you”, loginy administracyjne, URL-e trackingowe? Zablokuj. Ale jeśli strona jest:
- Dostępna do crawlowania
- Publiczna
- Dostarczająca wartości lub odpowiadająca na intencję wyszukiwania
…to powinna być zindeksowana. Jeśli nie jest, ustal przyczynę — szybko.
Co zwykle oznaczają problemy z indeksacją
Objaw | Prawdopodobna przyczyna |
---|---|
Strona „Crawled - not indexed” | Niska jakość treści lub duplikat |
Strona „Blocked by robots.txt” | robots.txt zbyt restrykcyjny |
Strona „Excluded by ‘no-index’” | Ktoś zostawił tag no-index ze stagingu |
Google zindeksował dziwną wersję strony | Zły canonical lub zduplikowane ścieżki |
Zanim przejdziesz dalej, sprawdź, czy Twoje money pages są w indeksie i wyglądają jak trzeba. Nie tylko strona główna — strony, które przynoszą ruch, leady i konwersje.
Audyt tagów tytułu i meta description
Tydzień po premierze wpisz nazwę firmy w Google. Co się wyświetla?
Jeśli widzisz coś w stylu:
Home – YourSite
Just another WordPress site
…to masz robotę do wykonania.
Tytuły i meta description to nie dekoracja
Wyszukiwarki nie zgadują, o czym jest Twoja strona (a przynajmniej nie chcesz, żeby zgadywały). Tag tytułu to nagłówek w SERP-ach. Meta description to Twoja oferta.
Jeśli je sknocisz:
- Pozycje spadają.
- CTR leci w dół.
- Wyglądasz nieprofesjonalnie, zwłaszcza gdy w wynikach pojawia się „Home” albo „Welcome to our website”.
Najpierw napraw oczywiste rzeczy
Zacznij od najbardziej widocznych stron:
- Strona główna
- Strony produktów lub usług
- Cennik
- Artykuły blogowe
- Kontakt/O nas
Zadaj sobie pytania:
- Czy tag tytułu jest unikalny?
- Czy zawiera trafne słowo kluczowe, nie brzmiąc przy tym jak bot?
- Czy meta description zachęca, czy to tylko korporacyjna sztampa?
Dla kontekstu, szybkie „przed i po”:
Strona | Źle | Lepiej |
---|---|---|
Strona główna | Home – YourSite | Niedrogi CRM dla małych zespołów – YourSite |
Blog | Blog – YourSite | Jak skalować SaaS na wczesnym etapie – Blog YourSite |
Kontakt | Contact – YourSite | Skontaktuj się z działem sprzedaży lub wsparciem – YourSite |
Trzymaj tytuły w granicach ~60 znaków, meta description ~155. Jeśli Google je przepisuje, to znak, że Twoje nie były wystarczająco dobre.
Użyj narzędzi, żeby przyspieszyć pracę
- Screaming Frog: Przeskanuj stronę i wyeksportuj wszystkie tytuły/meta do arkusza.
- SEOJuice: Szybko audytuje tagi tytułu i meta description na produkcji, oznacza duplikaty i wskazuje słabo zoptymalizowane podstrony w jednym miejscu. Idealne dla małych zespołów, które nie chcą grzebać w CSV.
- Ahrefs / SEMrush / Sitebulb: Wychwytują duplikaty, brakujące tagi lub keyword-spam.
- Google Search Console → Performance Report: Sprawdź, które strony mają wyświetlenia, ale brak kliknięć — to znak, że tytuły/opisy nie robią roboty.
Unikaj tych błędów
- Zduplikowane tytuły na wielu stronach (szczególnie blog)
- Generyczne meta description („Welcome to our website” nic nie sprzedaje)
- Napychanie słów kluczowych (Google to przepisze — a CTR poleci)
- Tytuły ucięte w połowie zdania, bo nikt nie sprawdził limitu znaków
Posprzątaj przekierowania
Nowa witryna? Nowe URL-e. A to oznacza przekierowania. Dużo przekierowań.
Większość zespołów ustawia je „na szybko”, byle wystartować, a potem zapomina. Tak powstają łańcuchy, pętle i ślepe przekierowania, zabijające crawl i autorytet linków.
Co zrobić
- Zastosuj 301 dla starych URL-i, które zmieniły nazwę lub strukturę
- Usuń linki wewnętrzne oparte na przekierowaniach, kieruj bezpośrednio do celu
- Eliminuj łańcuchy przekierowań (np. A → B → C) i spłaszczaj je (A → C)
Sprawdź:
Problem | Dlaczego to ważne |
---|---|
Łańcuchy przekierowań | Marnują budżet crawl, spowalniają ładowanie, rozcieńczają autorytet |
Pętle przekierowań | Google się gubi, użytkownicy widzą błędy |
Przekierowania na 404 | Wysyłają crawlerów i użytkowników w czarną dziurę |
Sprawdź szybkość i Core Web Vitals
Google ocenia nie tylko treść. Jeśli Twoja strona ładuje się jak w 2009 roku, wypadasz z gry.
Core Web Vitals to skrót Google dla:
Czy Twoja strona szybko się ładuje, jest stabilna i responsywna, zwłaszcza na mobile?
Co testować
- PageSpeed Insights
- WebPageTest.org
- Chrome → DevTools → Lighthouse tab
Sprawdź trzy metryki:
Metryka | Co mierzy | Cel |
---|---|---|
LCP (Largest Contentful Paint) | Jak szybko ładuje się główny kontent | < 2,5 s |
FID (First Input Delay) | Czas do interakcji użytkownika | < 100 ms |
CLS (Cumulative Layout Shift) | Stabilność wizualna podczas ładowania | < 0,1 |
Szybkie wygrane
- Kompresuj i skaluj obrazy
- Odłóż ładowanie niekrytycznego JavaScriptu
- Włącz leniwe ładowanie (lazy load)
- Wybierz szybki, solidny hosting (pakiet za 3 $ miesięcznie nie wystarczy)
- Cache’uj wszystko, co się da
⚠️ Nie obsesyjnie walcz o 100/100. Skup się na tym, co wpływa na realnych użytkowników, zwłaszcza mobilnych.
Jeśli strona wydaje się wolna Tobie, to dla użytkownika z przeciętnym Androidem i kiepskim Wi-Fi jest katastrofą. Napraw to, zanim pomyślisz o backlinkach.
Przejrzyj dane strukturalne (schema)
Dane strukturalne pomagają Google zrozumieć, czym są Twoje strony, nie tylko co mówią.
Dodajesz je, aby Google nie pomylił strony cennika z wpisem blogowym czy bio autora z opisem produktu.
Co dodać (absolutne minimum)
- Schema Organization (globalnie): nazwa, logo, profile społecznościowe
- Schema Breadcrumbs: pozwala Google pokazywać przejrzystą nawigację w wynikach
- Schema Product, Article lub FAQ: w zależności od rodzaju treści
Używaj tylko tego, co ma sens. Nie dodawaj każdej możliwej schemy, bo plugin na to pozwala.
Narzędzia testowe
- Google Rich Results Test
- Schema Markup Validator
Przepuść najważniejsze strony przez te narzędzia. Sprawdź:
- Błędy (blokują możliwość rozszerzonych wyników)
- Ostrzeżenia (nie zawsze krytyczne, ale warto przejrzeć)
- Nieistotne lub nadmierne oznaczenia (Google to zauważa)
Typowe błędy
Błąd | Dlaczego szkodzi |
---|---|
Dodanie schemy, która nie odpowiada widocznej treści | Uznawane za spam — Google może zignorować całość |
Oznaczanie wszystkiego jako „FAQ” | Nie pomoże, jeśli nie ma faktycznych pytań i odpowiedzi |
Kopiowanie JSON-LD bez edycji | Powoduje niezgodności i nieważny markup |
Schema nie sprawi, że słabe treści będą rankingować, ale pomoże dobrym być czytelniejszym (i czasem lepiej wyglądać w wynikach).
Przejrzyj linkowanie wewnętrzne i nawigację
Strona działa. Super. Teraz sprawdź, czy użytkownicy (i roboty) znajdą treści bez mapy i kompasu.
Linki wewnętrzne kształtują sposób, w jaki Google odkrywa, ocenia i wartościuje podstrony. Kształtują też drogę użytkownika; jeśli jest przerwana, tak samo jest z lejkiem sprzedażowym.
Co naprawić
- Strony osierocone: bez linków wewnętrznych, niewidoczne dla crawlerów bez ręcznego zgłoszenia.
- Zakopane strony: jeśli do ważnej treści prowadzi 4+ kliknięć, jest za głęboko.
- Niespójny anchor text: “kliknij tutaj” nie pomaga. Używaj opisowych kotwic, np. “zobacz cennik”, “sprawdź funkcje SEO”.
- Spam w stopce: link do każdej strony z każdej strony? Bałagan. Upraszczaj.
Gdzie się skupić
- Linkuj z podstron o dużym ruchu do tych o niskiej widoczności (np. ze strony głównej do najnowszego wpisu)
- Dodawaj linki między powiązanymi artykułami. Używaj linków kontekstowych, nie tylko widgetów „related posts”
- Upewnij się, że główna nawigacja odzwierciedla priorytetowe strony, a nie tylko to, co ładnie mieści się w menu
Porada pro
Przeprowadź crawl (Screaming Frog, SEOJuice) i posortuj po “Inlinks”. Jeśli kluczowe strony mają 0–2 linki wewnętrzne, raczej nie będą rankować — i tyle.
Nie polegaj wyłącznie na mapie XML. Linki wewnętrzne pokazują Google, co uważasz za ważne. Niech będzie to oczywiste.
Ponownie przetestuj wszystkie CTA, formularze i zdarzenia konwersji
SEO sprowadza ruch. Jeśli jednak Twoje CTA, formularze lub śledzenie nie działają, jedynie zwiększasz bounce rate.
Po premierze rzeczy się psują: skrypty padają, formularze nie wysyłają danych, tagi GA znikają w ostatnim commicie. Dowiesz się o tym, gdy konwersje spadną do zera.
Co sprawdzić (ręcznie)
- Wszystkie CTA: kliknij każdy przycisk. Każdy. Zwłaszcza w mobile.
- Formularze kontaktowe i leadowe: czy się wysyłają? Czy wysyłają potwierdzenie? Czy zapisują wpis gdziekolwiek?
- Strony podziękowania: czy istnieją? Czy są indeksowalne? (Podpowiedź: nie powinny.)
- Widgety czatu: jeśli używasz, przetestuj. Często działają na stagingu, a psują się na produkcji.
- Zapisy na newsletter: czy faktycznie trafiają do listy mailingowej?
Śledzenie czy zgadywanie?
Upewnij się, że analityka działa poprawnie:
- Zdarzenia GA4: czy kluczowe akcje są trackowane (np. form_submit, contact_click, purchase)?
- Google Tag Manager: użyj podglądu i debuggera, zanim założysz, że wszystko się nagrywa
- Heatmapy (jeśli używasz): upewnij się, że skrypty się ładują — Hotjar, Microsoft Clarity itp.
Dodatkowy sanity check
Jeśli w CRM lub narzędziu e-mail nie widzisz nowych zapisów ani zdarzeń po premierze, to nie przypadek. Coś jest zepsute.
Nie śledź tylko odwiedzin, śledź efekty. Inaczej raport SEO będzie wyglądał świetnie, a pipeline po cichu umrze.
Monitoruj wyniki i pozycje co tydzień (bez obsesji)
Ruch wystartował. Wszyscy raz sprawdzili Google. A potem… cisza.
SEO to nie wtyczka „one-click”. Wymaga monitoringu. Ale nie takiego, który zabiera Ci poniedziałkowe poranki i funduje ból głowy.
Co śledzić (co tydzień, nie co godzinę)
Skup się na trendach, nie na fluktuacjach. Liczy się:
-
Wyświetlenia i kliknięcia:
→ GSC → zakładka Performance → filtruj po stronie lub zapytaniu
→ Czy kluczowe strony zyskują widoczność?
-
Średnia pozycja:
→ Śledź frazy brandowe i niebrandowe
→ Ignoruj drobne spadki. Patrz na długoterminowy trend.
-
Najlepsze strony:
→ Sprawdź, które URL-e generują najwięcej ruchu
→ Czy to te podstrony, które chcesz pozycjonować?
-
CTR (Click-Through Rate):
→ Jeśli wyświetlenia są wysokie, a kliknięcia niskie, wróć do tytułów i meta description.
SEO nie wynagradza paniki. Ustal harmonogram, obserwuj trendy i reaguj, gdy coś jest nie tak, a nie za każdym razem, gdy pozycja spadnie o jedno oczko w nocy.
Zaktualizuj mapę XML i plik robots.txt
Mapa i robots.txt to ściąga dla Google. Jednak większość zespołów nie sprząta ich po premierze — tak indeksują się strony niskiego priorytetu, a wartościowe lądują w limbo.
Mapa XML: czysta i aktualna
Mapa powinna:
- Zawierać tylko aktywne, indeksowalne adresy
- Wykluczać 404, przekierowania, strony no-index i te za logowaniem
- Odwzorowywać realną strukturę witryny, a nie każdy URL wypluty przez CMS
Prześlij (lub ponownie prześlij) ją w Google Search Console w Indexing → Sitemaps. Nie zakładaj, że działa, bo kiedyś została dodana.
Robots.txt: upewnij się, że nie blokuje złota
Otwórz yoursite.com/robots.txt. Spytaj:
- Czy blokujesz coś kluczowego (np.
/blog/
,/product/
)? - Czy nadal masz
Disallow: /
z etapu staging? Tak, to się zdarza. - Czy zezwalasz na dostęp do plików JS/CSS potrzebnych do renderowania?
Szybkie poprawki
Problem | Naprawa |
---|---|
Mapa zawiera martwe strony | Wygeneruj ponownie w CMS/pluginie po sprzątaniu |
Robots.txt blokuje kluczowe foldery | Usuń lub zmień reguły Disallow |
Mapa nie wysłana lub status „Couldn’t fetch” | Sprawdź adres i odpowiedź serwera (tylko 200) |
Mapa i robots.txt nie muszą być wyszukane. Muszą być poprawne. W przeciwnym razie Google crawl-uje z błędnymi instrukcjami, a Twoje najlepsze strony pozostają zakopane.
Skonfiguruj alerty i zaplanuj publikację treści
Strona opublikowana. Tech ogarnięty. I co dalej?
Dwie rzeczy:
- Otrzymuj alerty, gdy coś się psuje.
- Publikuj regularnie, aby witryna nie pokryła się cyfrowym kurzem.
Skonfiguruj alerty SEO (żeby nie dostać obuchem)
Nie potrzebujesz etatowego SEO-wca przy konsoli. Musisz tylko wiedzieć, gdy coś jedzie po bandzie.
Ustaw:
- Alert spadku indeksu → w Google Search Console włącz powiadomienia mailowe
- Alert spadku ruchu → Ahrefs / SEMrush → ustaw progi zmian ruchu organicznego
- Monitor 404 → użyj CMS, Ahrefs lub prostego narzędzia jak UptimeRobot
- Logi błędów → jeśli masz wsparcie dev, śledź błędy 5xx po deployu
Brak wiadomości to dobra wiadomość. Ale cisza może też znaczyć: “formy nie działają od trzech tygodni”.
Zbuduj pipeline treści (teraz, nie później)
Największy zabójca SEO po premierze? Brak nowych treści. Strona stoi, pozycje się stabilizują, Google traci zainteresowanie.
Zacznij od:
- Lista tematów blogowych opartych na wyszukiwaniu
- Aktualizacje produktu → przerób na release notes, use case’y, FAQ
- Treści linkogenne → statystyki, narzędzia, poradniki — coś, co ludzie faktycznie cytują
Zaplanuj co najmniej jeden wpis miesięcznie. Dwa, jeśli podchodzisz serio. Dodawaj linki wewnętrzne. Promuj. Mierz efekty.
Strona nigdy nie jest „skończona”. Ale jeśli przeszedłeś tę checklistę, jesteś przed 90 % nowych premier.
FAQ: SEO po premierze
Czy muszę zrobić wszystko od razu po starcie?
Nie. Ale im dłużej czekasz, tym to bardziej boli. Priorytetem jest indeksacja, przekierowania i wydajność w pierwszym tygodniu. Resztę rozłóż na kolejne 2–3 tygodnie.
Korzystamy z Webflow/Shopify/WordPress. Czy to nadal obowiązuje?
Tak. CMS potrafią część z tego ogarnąć, ale nie naprawią zepsutych linków, słabych treści ani pułapek crawl. Nadal musisz przeaudytować to, co faktycznie trafiło na produkcję.
Kiedy mogę oczekiwać wyników?
Indeksacja: w kilka dni. Pozycje? Od tygodni do miesięcy. SEO wolno startuje, ale szybko się kumuluje, jeśli podstawa jest czysta.
Czy muszę zatrudniać agencję SEO?
Nie, jeśli Ty (lub ktoś z zespołu) poświęcicie 4–6 godzin na dokładne przejście tej checklisty. To głównie uporządkowany zdrowy rozsądek + dbałość o szczegóły.
Jaki błąd po premierze pojawia się najczęściej?
Pozostawione tagi no-index na ważnych stronach. Przekierowania prowadzące donikąd. Albo start, a potem opuszczenie projektu z założeniem, że Internet sam się ogarnie.