·2 min
Crawlability (indeksowalność)
crawlabilitySEO technicznepozycjonowanie
Czym jest crawlability?
Crawlability (indeksowalność) to zdolność strony internetowej do bycia znalezioną i przeskanowaną przez roboty wyszukiwarek (crawlery). Jeśli Google nie może dotrzeć do Twojej strony lub jej podstron, nie zostaną one zaindeksowane i nie pojawią się w wynikach wyszukiwania.
Jak działa crawling?
Googlebot (crawler Google) systematycznie przegląda internet, podążając za linkami i analizując treść stron. Proces wygląda tak:
- Odkrywanie — crawler znajduje URL (z sitemap, linków, poprzednich wizyt)
- Pobieranie — crawler ładuje stronę i analizuje jej kod HTML
- Renderowanie — przetwarzanie JavaScript i CSS
- Indeksowanie — dodanie strony do indeksu Google
Co wpływa na crawlability?
Pozytywnie
- Sitemap XML — mapa strony ułatwiająca crawlerowi odkrywanie podstron
- Linkowanie wewnętrzne — logiczna struktura linków między podstronami
- Szybkość serwera — szybkie odpowiedzi serwera = więcej stron przeskanowanych
Negatywnie
- Robots.txt — błędna konfiguracja może blokować ważne podstrony
- Meta noindex — strony oznaczone jako noindex nie trafią do indeksu
- Orphan pages — strony bez żadnych linków wewnętrznych są trudne do odkrycia
- Nieskończone pętle — duplikaty URL, parametry filtrów, paginacja bez limitu
Jak sprawdzić crawlability?
Google Search Console → raport „Strony" pokazuje, które URL-e zostały zaindeksowane, a które odrzucone i dlaczego. Narzędzia jak Screaming Frog pozwalają zasymulować crawling i wykryć problemy.