5 najpopularniejszych błędów SEO na stronach internetowych

blog.strefakursow.pl 1 rok temu

Pozycjonowanie strony internetowej (SEO: Search Engine Optimization) to złożony proces, polegający na optymalizacji serwisu zgodnie z wytycznymi wyszukiwarek oraz potrzebami użytkowników. Prawidłowo skonfigurowana witryna będzie widoczna w (np. w Google), co przyczyni się do generowania ruchu organicznego. Aby tak się stało, strona musi być wolna od błędów, przez które algorytm wyszukiwarki może umieszczać serwis na niższych pozycjach w rankingu. Istnieje szereg elementów wpływających na SEO – niestety często o absolutnych podstawach zapominają admini stron, narażając swój biznes na brak widoczności w Google. Dlatego przedstawiamy najpopularniejsze błędy, których eliminacja pozytywnie wpływa na SEO.


Kurs SEO - jak skutecznie pozycjonować stronę
4.9
(170 ocen)

Zobacz jak zadbać o SEO i zapewnij swojej stronie wysoką pozycję w wyszukiwarce... Dowiedz się więcej



Brak meta danych

Brak meta danych Meta dane to informacje zawarte w kodzie HTML strony internetowej, mające za zadanie opisywać zawartość witryny. Do podstawowych elementów należą:

  • title – tytuł strony, powinien być krótki i zawierać najważniejszą frazę kluczową;
  • description – opis strony, to około 2-3 zdania;
  • robots – tag dla robotów, określający, czy konkretna podstrona może być indeksowana przez wyszukiwarkę. Tag „index” oznacza możliwość indeksowania, a jego przeciwieństwem jest „noindex”.

Problemem wielu witryn jest absolutny brak konfiguracji meta danych. Pola title lub description bywają puste, a innym razem wyglądają dokładnie tak samo na każdej podstronie w obrębie całej domeny (duplikaty).

Meta dane są dokładnie analizowane przez wyszukiwarkę i mają wpływ na SEO strony internetowej. Dodatkowo elementy takie jak title oraz description wyświetlają się bezpośrednio w wynikach wyszukiwania, co może mieć wpływ na współczynnik CTR. Choć Google samodzielnie „podmienia” ukazywane tytuły i opisy, to ciągle umieszczenie tam odpowiednich danych ma znaczenie w kontekście widoczności strony.

Zadbaj o to, aby każdy adres URL posiadał prawidłowo skonfigurowane tytuły oraz opisy, zawierające frazy kluczowe.


Zaniedbanie mapy witryny – plik sitemap

Mapa witryny to plik, w którym znajdują się (prawie) wszystkie adresy URL serwisu internetowego. Robot wyszukiwarki „przegląda” taki dokument, a następnie odwiedza poszczególne miejsca w witrynie, w celu indeksacji. Posiadanie (i aktualizowanie) pliku przyspiesza proces dodawania stron do wyszukiwarki. Niestety wielu właścicieli witryn kompletnie zapomina o mapie witryny – w efekcie pojawiają się problemy z płynną indeksacją adresów URL.

Sitemapa powinna być regularnie aktualizowana, najlepiej w sposób automatyczny. Zależnie od posiadanego silnika (systemu CMS) proces ten będzie wyglądał inaczej – często ogranicza się do wdrożenia i konfiguracji stosownej wtyczki.

Mapa witryny nie musi zawierać stron paginacji, o ile w serwisie zostały prawidłowo zaimplementowane linki kanoniczne. Do pliku należy dodawać adresy URL pod prawidłową domeną i z adekwatnym protokołem (www.xyz.pl oraz https://xyz.pl to różne adresy URL). Jednocześnie linki powinny zwracać kod 200 (bez błędów i przekierowań). Rozmiar sitemapy nie powinien przekraczać 50 MB po skompresowaniu oraz 50 000 adresów URL. o ile serwis jest większy, należy stworzyć kilka map witryny. Link do sitemapy umieszcza się w pliku robots.txt – dzięki temu robot może łatwo ją znaleźć.


Błędnie skonfigurowane linki kanoniczne

Linki kanoniczne (canonical) to adresy URL umieszczane w sekcji

, którym celem jest wskazanie oryginalnej podstrony zawierającej taką samą lub zbliżoną treść. Dzięki nim robot nie traktuje poszczególnych adresów jako duplikatów, a do wyszukiwarki ostatecznie trafia prawidłowa wersja podstrony.

Przykładem użycia linków kanonicznych jest paginacja występująca np. w e-commerce, czy na listingu bloga. To miejsca składające się z kilku dodatkowych podstron (np. xyz.pl/blog/2/). Domyślnie jednak tylko główny adres URL powinien znaleźć się w wyszukiwarce. Dlatego na podstronach paginacji w sekcji

umieszcza się linki kanoniczne. Takie odnośniki są niewidoczne dla użytkowników – to element kodu strony dostępny dla robotów.

Link kanoniczny wygląda w następujący sposób:

<link rel=”canonical” href=”https://xyz.pl/docelowy-adres-url” />.

Canonicali nie stosuje się jednocześnie z dyrektywą meta robots „noindex”. Dla robotów indeksujących link kanoniczny jest wystarczającym sygnałem oznaczającym, iż w wynikach wyszukiwania powinna pojawić się docelowa podstrona, a nie jej duplikaty.


Jak przyspieszać i optymalizować strony
4.9
(102 oceny)

Jak osiągnąć wysoką pozycję w Google dzięki doskonałej optymalizacji strony... Dowiedz się więcej



Ignorowanie crawl budgetu oraz analizy procesu indeksacji

Błąd ten jest często powiązany z opisywanymi wcześniej linkami kanonicznymi oraz mapą witryny. Crawl budget to zasoby, które robot może „wykorzystać” podczas jednorazowej wizyty w serwisie. Indeksacja jest procesem cyklicznym – co jakiś czas robot przegląda adresy URL domeny i je dodaje lub aktualizuje, aby następnie wyświetlać w wynikach wyszukiwania.

Jednak może dojść do sytuacji, w której podstron wymagających indeksacji jest tak wiele, iż robot nie jest w stanie przeanalizować ich wszystkich podczas wizyty (brak zasobów). W efekcie ważne podstrony nie są dodawane do wyszukiwarki dostatecznie szybko, a proces indeksacji rozwleka się w czasie choćby do kilku tygodni lub miesięcy. Dlatego tak istotne są: stosowanie linków kanonicznych, prawidłowe wdrożenie tagu meta „noindex” oraz odpowiednie uzupełnienie pliku robots.txt. W ten sposób ogranicza się pracę robota, aby crawl budget był wykorzystywany dla znacznie bardziej istotnych podstron i ich szybkiej indeksacji.


Brak prawidłowych przekierowań

Przekierowania (301) to absolutnie nieodłączny element każdej strony internetowej. Dzięki nim linki w serwisie mogą działać prawidłowo, gdy adres URL ulegnie zmianie lub podstrona zostanie usunięta bądź przeniesiona.

Pamiętaj, więc, aby:

  • przekierowywać usunięte podstrony (na nowe odpowiedniki lub podobne adresy URL, a w skrajnej sytuacji na stronę główną);
  • stosować przekierowania, gdy adres URL podstrony zostanie zmieniony;
  • zachowywać przekierowania (nie usuwaj ich z biegiem czasu).
  • nie tworzyć łańcuchów przekierowań (jeżeli podstronę A przeniesiono na B, a następnie B na C, to wystarczy przekierowanie z A do C oraz B do C, bez sekwencji A>B>C).

Niestety często właściciele serwisów zapominają o zastosowaniu przekierowań, gdy w strukturze witryny pojawią się zmiany. W efekcie użytkownik najczęściej otrzymuje błąd 404 (strony nie znaleziono). Co gorsza, może dojść do sytuacji, w której podstrony błędu są indeksowane – i jednocześnie zużywają wcześniej wspomniany crawl budget.

Idź do oryginalnego materiału