Przy tworzeniu stron internetowych nawet najlepsi graficy i webmasterzy popełniają szereg podstawowych błędów, które uniemożliwiają serwisom prawidłową indeksację przez roboty sieciowe i sprawiają, że nie mogą się one wyświetlać na wysokich pozycjach w wyszukiwarce. Strony te, choć pięknie wyglądają, nie pojawiają się nawet po wpisaniu w Google nazwy firmy.
Przedstawimy dziś błędy, z którymi spotykamy się najczęściej podczas optymalizacji serwisów naszych klientów.
- Zablokowanie w metatagach dostępu dla robotów
Najczęściej spotykane jest ustawienie na stronie głównej metatagu[syntax type=”html”]<meta name=”robots” content=”noindex, nofollow”>[/syntax]który powoduje całkowity brak indeksacji podstrony. Błąd ten bardzo łatwo wyeliminować zmieniając zapis na [syntax type=”html”]<meta name=”robots” content=”index, follow”>[/syntax]Roboty Google mogą wtedy zarówno zapisać stronę, jak i podążać za linkami na niej umieszczonymi. - Brak przekierowania www na bez www Dla Google adres www.moja-strona.pl i moja-strona.pl to osobne podstrony. Brak przekierowania powoduje powstanie kopii i automatycznie obniża ocenę serwisu.Najprostszym sposobem na ustawienie odpowiedniego przekierowania jest napisanie prostych instrukcji w pliku .htaccess[syntax type=”html”]
RewriteRule On
RewriteCond %{HTTP_HOST} ^www.moja-domena.pl$
RewriteRule ^(.*)$ http://moja-domena.pl/ [R=301,L]
[/syntax] - Takie same metatagi
Brak unikalnych metatagów title i description jest bardzo dużym błędem. Pamiętajmy, że metatagi mają opisywać zawartość konkretnej podstrony, a nie wszystkie podstrony dotyczą tego samego. - Kopie treści
Unikalność tekstów na stronie w znaczącym stopniu wpływa na pozycjonowanie. Pamiętajmy, że kopiowanie treści z innych serwisów jest dobrze wykrywane przez GoogleBoty i grozi nawet całkowitym banem w wyszukiwarce. Dlatego przy tworzeniu tekstów na stronę warto poświecić trochę czasu lub zlecić pracę copywriterom. - Przesadne umieszczanie słów kluczowych
Częstym błędem osób, które zaczynają pracę nad optymalizacją serwisów, jest umieszczanie słów kluczowych „w każdym możliwym miejscu”. W efekcie, zamiast poprawić pozycje, strona może otrzymać filtr i przez wiele miesięcy mieć zablokowaną w Google możliwość wypozycjonowania danego słowa. - Brak przyjaznych linków
W dzisiejszych czasach nie korzystanie z mod rewrite automatycznie obniża pozycje strony w wyszukiwarce. Każdy nowo powstały serwis powinien mieć ustawione przyjazne linki. SEO friendly URLs, czyli takie, które są pozbawione parametrów i znaczników sesji (mają postać [label style=”red”]/o-nas.html[/label], [label style=”red”]kontakt.html [/label]zamiast skomplikowanych typu
[label style=”red”]/index.php?id=4&item=57&session=2374[/label]) mają większe szanse na szybką i pełną indeksację przez wyszukiwarki. - Brak wersji przystosowanej do urządzeń mobilnych
Z roku na rok znacząco zwiększa się liczba użytkowników korzystających z internetu na swoich smartfonach i tabletach. Google dbając o nich wprowadza zmiany w swoich algorytmach, które z całą pewnością już w najbliższych miesiącach negatywnie wpłyną na ocenę serwisów niewyświetlających się w odpowiedni sposób na urządzeniach mobilnych.
Dlatego przy projektowaniu strony konieczne jest zaprojektowanie jej w stylu responsive design, czyli takim, który sam dopasuje jej rozdzielczość do wyświetlacza w komórce lub tablecie.
Wszystkie powyższe błędy można w prosty sposób samemu skorygować już na etapie budowania serwisu, a ich wyeliminowanie pozwoli osiągnąć wysokie pozycje oraz zwiększyć ruch na stronie.
Tomasz
23 kwi 2015, 14:06
Witaj, fajny artykuł. Dawno nie widziałem tak fajnego.