Optymalizacja strony WWW pod kątem SEO

Optymalizacja strony to istotny czynnik pozycjonowania!

Pozycjonowanie strony internetowej to proces bardzo złożony. Jednym z podstawowych działań obejmujących strategię promocji jest optymalizacja strony www, czyli dostosowanie i modyfikacja kodu źródłowego i treści strony internetowej pod kątem wymagań wyszukiwarek internetowych.

Wskazane typy optymalizacji mają na celu przede wszystkim poprawę struktury witryny, jej dopasowania do wyrażeń kluczowych oraz zwiększenie ruchu na stronie. Zarówno optymalizacja treści jak i kodu źródłowego odgrywają decydujące rolę w procesie pozycjonowania witryny.

Na czym więc polega optymalizacja pod kątem SEO? Na jakie elementy przede wszystkim należy zwrócić uwagę? Postaramy się przedstawić najważniejsze aspekty optymalizacji strony internetowej w poniższym artykule.

Optymalizacja sekcji head

Znaczniki tytułu i opisu to wizytówka strony w wynikach wyszukiwania i sposób na jego wyróżnienie. Tytuły przedstawiają tematykę wyszukanej podstrony, natomiast opisy mają na celu zachęcić użytkownik do odwiedzin. Odpowiednia modyfikacja znaczników pozwoli robotom wyszukiwarek skorelować tematykę podstrony z wyrażeniami kluczowymi. Znajdują się one w sekcji head dokumentu HTML.

Wynik Google

Jak powinny wyglądać znaczniki meta-title oraz meta-descrption?

Znacznik meta-title

Title

Znaczniki tytułu powinny w jak najbardziej trafny i naturalny sposób przedstawić treść podstrony. Będzie się on różnił w zależności od typu strony – w ten sposób w tytule strony głównej powinny znaleźć się ogólne wyrażenia kluczowe, które jasno precyzując tematykę całej strony lub opisują profil działalności firmy. Dla podstron ofertowych powinny przedstawiać produkt lub usługę, która wyświetli się po kliknięciu w wynikach wyszukiwania. Warto uzupełnić tytuł o nazwę firmy w celu wzmocnienia marki. Należy również pamiętać o długości tytułu, Google nie wyświetli w tym polu treści dłuższej niż około 55-60 znaków, więc zamieszczanie zbyt dużej ilości wyrażeń nie przyniesie pozytywnego skutku. Czy należy optymalizować każdą podstronę? W pierwszej kolejności optymalizujemy stronę główną, najważniejsze strony oferty oraz najchętniej odwiedzane witryny przez użytkowników.

Podsumowując, zoptymalizowany tytuł powinien:

  • być unikalny w skali serwisu,
  • zawierać wyrażenia kluczowe,
  • być precyzyjny i nie dłuższy niż 55-60 znaków,
  • kończyć się na nazwie firmy.

Znacznik meta-description

Description

W stosunku do tytułu, opis jest mniej istotny dla pozycjonowania strony. Odgrywa za to kluczową rolę w zachęcaniu użytkownika do wejścia na stronę. W miarę możliwości powinien naturalnie opisywać zawartość podstrony z użyciem zwrotów CTA (ang. Call to Action, czyli komunikat wzywający użytkownika do działania, kliknięcia w link, zakupu) wpływających na potencjalnego klienta. Treść opisu powinna zawierać co najmniej 140 znaków. W przypadku stron opartych o bazy danych np. sklepy internetowe warto generować go automatycznie, ale pamiętając o jego unikalności i odpowiedniej prezentacji za pomocą atrybutów produktu. Pozostawienie pustego znacznika spowoduje, że Google automatycznie wyświetli w wynikach opis pobrany z tekstów na stronie, przez co tracimy kontrolę nad jego treścią.

Podsumowując, zoptymalizowany opis powinien:

  • czytelnie i naturalnie opisywać stronę,
  • zachęcać do odwiedzin,
  • zawierać około 140-160 znaków.

Indeksacja strony w wyszukiwarce

Odpowiednio zoptymalizowana witryna powinna być łatwo dostępna dla użytkownika i ułatwiać indeksację robotom wyszukiwarek internetowych. Szczegółowa analiza serwisu pozwoli na określenie czy wszystkie adresy witryny powinny zostać zaindeksowane. Duplikaty podstron, strony niskiej jakości powielające schematy czy wyniki z wyszukiwarki wewnętrznej mogą obniżać wartość serwisu.

W początkowej fazie optymalizacji strony www należy zweryfikować czy witryna przekazuje instrukcje zezwalające robotom na indeksację serwisu lub wejście na stronę określone, m.in. za pomocą znacznika meta-robots lub pliku robots.txt. Niezbędna jest również weryfikacja poprawności wdrożenia znaczników canonical. Element meta-robots i canonical tak jak wymienione znaczniki tytułu i opisu są ściśle związane z kodem źródłowym i znajdują się w sekcji head witryny.

Meta-tag robots

Korzystając z tagu robots o wartości noindex mamy możemy indeksowania konkretnych adresów URL w serwisie. Nie jest to blokada wejścia na stronę dla robota. Do poprawnego korzystania z tej instrukcji konieczne jest odblokowanie serwisu w pliku robots.txt. Robot wyszukiwarki odnajdując na stronie tag noindex, powinien ją całkowicie wyeliminować z wyników wyszukiwania.

Przykładowy kod źródłowy prezentujący instrukcję zezwalającą na indeksację strony:

Meta-robots

Najpopularniejsze warianty instrukcji:

  • index, follow – indeksuj stronę, podążaj za linkami,
  • noindex, follow – nie indeksuj strony, podążaj za linkami,
  • noindex, nofollow – nie indeksuj strony, nie podążaj za linkami wewnętrznymi.

W zależności od przeznaczenia danej podstrony należy wybrać odpowiednią instrukcję. Brak znacznika meta robots w sekcji head nie jest błędem optymalizacyjnym – w takim przypadku roboty wyszukiwarek domyślnie będą indeksować całą zawartość witryny.


Plik robots.txt

Inny sposobem na blokowanie adresów URL jest użycie zestawu poleceń w pliku robots.txt. Plik ten znajduję w katalogu głównym strony internetowej. Za pomocą prostych instrukcji allow/disallow możemy dowolnie blokować zasoby strony do indeksacji, głównie tych nie zawierających sekcji head jak grafiki, pliki stylu CSS lub w razie konieczności całe katalogi. Warto pamiętać, iż zablokowanie kluczowych w serwisie grafik czy skryptów nie pozwoli Google skutecznie zrenederować pełnej zawartości witryny wpływając niekorzystnie na pozycjonowanie strony. Plik robots.txt pozwala również zdefiniować typy robotów internetowych, które mają dostęp do strony.

Jak wygląda plik robots.txt?

Podstawowe instrukcje używane w pliku:

  • user-agent – określa nazwę lub grupę botów dla których mają zostać wykonane instrukcji, użycie * odnośni się do wszystkich dostępnych botów,
  • allow – instrukcja zezwalająca na wejście bota na stronę, katalog na serwerze, konkretny adres lub typ plików,
  • disallow – instrukcja zabraniająca na wejście bota,
  • sitemap – wskazuje mapę witryny.

Przykładowa konfiguracja pliku robots.txt:

robots.txt

W takim razie kiedy korzystać z pliku robots.txt?

  • gdy nie chcesz udostępnić w indeksie wszystkich zasobów witryny jak np. grafiki czy zdjęcia,
  • gdy chcesz udostępnić strony tylko dla konkretnych robotów internetowych np. Google lub Bing,
  • gdy jesteś w trakcie budowania strony i nie chcesz udostępnić wersji testowej serwisu.

Jeżeli nie chcesz blokować żadnych zasobów witryny, po prostu nie umieszczaj pliku robots.txt albo wypełnij go podstawową konfiguracją.

Znacznik canonical – wskazywanie wersji kanonicznej strony

Znacznik tag canonical również znajduję się w sekcji head dokumentu HTML. Jest to tag wskazujący adres URL do wersji kanonicznej, czyli „oryginalnej’ podstrony z której duplikowana jest treść. Korzystamy z niego w przypadku, gdy dwie podstrony w serwisie posiadają identyczne treści i są dostępne pod różnymi adresami URL. Określenie wersji kanonicznej jasno deklaruje robotom wyszukiwarek ważniejszą, oryginalną podstronę, która powinna zostać zaindeksowana. Niestety nawet drobne błędy we wdrożeniu znacznika canonical spowodują, iż nie będzie on respektowany przez wyszukiwarkę i pozwoli na indeksację duplikatów, bądź zaburzy proces indeksacji. Podstawowe błędy we wdrożeniu związane są z podaniem nieprawidłowego odnośnika do wersji kanonicznej bądź wskazaniem błędnej domeny.

Poniżej przykład tagu, wskazującego stronę główną jako wersję kanoniczną:

robots.txt

Istnieją również inne sposoby określające status witryny, które wpływają na ich interpretację przez roboty wyszukiwarek. W ramach optymalizacji serwisu należy zweryfikować i monitorować także nagłówki HTTP czy instrukcje w pliku serwerowym .htaccess.

Prezentacja i optymalizacja treści

Jednym z kluczowych elementów strony przyjaznej pod kątem SEO jest prezentacja i optymalizacja treści. Składają się na nią zarówno teksty w postaci artykułów czy opisów produktów oraz media takie jak grafika, zdjęcia oraz materiały video. Kwestie dotyczące optymalizacji grafiki przedstawiliśmy już w innym artykule na stronie. Zastosowanie konkretnych zasad w tworzenia tekstu wpłynie korzystnie na pozycjonowanie witryny.

Poniżej przedstawiamy wskazówki, które zalecamy stosować przy tworzeniu wartościowych dla użytkownika treści i elementy na które zwracamy uwagę przy ich analizie pod kątem SEO.

Optymalizując i tworząc tekst na stronę pamiętaj o:

  • unikalności treści – nie kopiuj tekstów z innych stron, tylko unikalne treści w skali internetu pozwolą wyróżnić stronę i zachęcić użytkownika do spędzenia na niej czasu. Pojawianie się tych samych treści w obrębie serwisu spowodują niechęć użytkownika do dalszego pozostania na stronie, dlatego witryny posiadające unikalny content wysokiej jakości są bardziej wartościowe, przez co lepiej oceniane przez roboty.
  • wykorzystaniu wyrażeń kluczowych – tworząc tekst zaplanuj umieszczenie w nim wyrażeń kluczowych. Wspomogą one pozycjonowanie witryny. Google jako wyszukiwarka tekstowa przeszukuje zawartość witryny i to na jej podstawie ocenia tematykę podstrony. Stosując kolokacje i synonimy naturalnie zwiększysz tematykę serwisu, unikając przy tym sztucznego upychania wyrażeń kluczowych.
  • długości tekstu – twórz obszerne i szczegółowe treści, które w pełni odpowiadają na zapytanie użytkownika. Zamieszczenie zbyt krótkiego i lakonicznego tekstu nie odpowie skutecznie na pytanie klienta i może spowodować odejście klienta ze strony.
  • widoczność tekstu – nie ukrywaj tekstu na stronie, gdyż możesz zostać za to ukarany. Takie zabiegi mogą zostać odebrane przez Google jako próby manipulacji rankingiem strony.
  • przejrzystości i prezentacji – dziel treść na akapity, formatuj tekst i stosuj odpowiednie nagłówki HTML. Przejrzyste i czytelne treści są bardziej atrakcyjne oraz lepiej określają tematykę podstrony. W zależności od typu odbiorcy umieszczenie dodatkowych grafik, prezentacji czy materiałów wideo może okazać się bardziej pożądane i lepiej odpowie na zapytanie użytkownika.
  • aktualizacji treści – dbaj o stworzone już treści, sprawdzaj czy wymagają one aktualizacji. Przestarzałe informacje na stronie zniechęcają użytkowników i tracą szanse na lepszy ranking.
  • content marketingu – zastosuj się do podstawowych zasad content marketingu i świadomie buduj wizerunek marki w Internecie poprzez spójne treści.

Duplikaty treści

Jednym z podstawowych elementów optymalizacji treści jest zachowanie jej unikalności. Nie zawsze autor artykułu ma wpływ na unikalność po publikacji tekstu. Może zostać on skopiowany przez innych użytkowników sieci. A co w momencie, gdy duplikaty tworzą się „same”? Rozpocznijmy od definicji duplicate content.

Duplicate content (duplikat treści) – jest to powielona treść występująca zarówno w obrębie serwisu (wewnętrzne), jak i na serwisach konkurencyjnych (zewnętrzne). Powielanie treści, może zostać odebrane przez roboty jako próba manipulacji pozycją witryny w rankingach wyszukiwarek. Aby zapobiec powstawaniu duplikatów należy trzymać się kilku prostych zasad.


Jak sprawdzić czy mamy do czynienia z duplicate content?

Wystarczy wkleić fragment treści ze strony do wyszukiwarki Google i wyświetlić wyniki wyszukiwania. W odpowiedzi pojawią się witryny na których ta treść występuje. Oczywiście na pierwszych miejscu pojawi tekst uznawany przez Google za oryginalny.

Duplikat treści


Jak unikać i usuwać duplikaty?

  • przekierowania 301 – prosty zabieg przekierowania odwiedzającego ze strony kopiującej do strony oryginalnej. Może mieć swoje zastosowanie zarówno do przekierowania całego serwisu jak i pojedynczych podstron. Wymuszając przekierowanie pomiędzy wersjami witryny (np. domena.pl oraz www.domena.pl) unikniemy indeksacji duplikatów.
  • wskazywanie wersji kanonicznej – stosowanie znacznika canonical wskaże robotom wyszukiwarek autora treści. Stosowany często przy publikacjach i rozpowszechnianiu artykułów w serwisach zewnętrznym. Stanowi alternatywne rozwiązanie do przekierowania czy meta-robots w przypadku istnienia w serwisie więcej niż dwóch nieróżniących się między sobą podstron, ale występujących pod różnymi adresami URL.
  • meta-tag robots z atrybutem noindex – wdrażany w przypadku istnienia podstron podobnych do siebie jak np. filtry i sortowania, strony do druku bądź nowo opublikowane podstrone, które nie zawierają jeszcze wartościowych treści. Strony będą nadal widoczne dla użytkownika, ale nie będą dodawane do indeksu Google.
  • usuwanie powielonej treści – jeżeli w serwisie występują strony podobne np. opisujące tą samą usługę w innym mieście, warto rozważyć usunięcie jednej z nich i połączenie informacji w jedną podstronę. W przypadku publikacji np. opisów produktów na portalach społecznościowych czy w porównywarkach powinny zostać one przeredagowane w sposób, który pozwoli zachować ich unikalność.
  • zapoznanie się z CMS, czyli systemem zarządzania treścią – sposób prezentacji treści witryny przez popularne silniki stron www może prowadzić do występowania wewnętrznych duplikatów treści. Przykładem może być blog, gdzie nowo zamieszczone treści mogą się pojawić zarówno na stronie głównej, w kategorii wpisu i w samym wpisie, tworząc tym samem duplicate content.


Dane strukturalne

Dane strukturalne to coraz bardziej liczący się aspekt optymalizacji strony. Umieszczenie ich na stronie jest jednym elementów dostosowania strony pod kątem SEO. Umożliwiają lepsze odczytanie i analizę strony przez roboty wyszukiwarek internetowych. Pozwalają również na skorzystanie z wszystkich możliwości wyników wyszukiwania. Możesz wyróżnić swoją stronę poprzez prezentację bezpośrednio w wynikach np. oceny, przepisów czy materiałów wideo.

Opinie w SERP

Stosując dane strukturalne do oznaczania elementów na stronie jak i zachowania standardu NAP zwiększamy wartość serwisu, co oczywiście pozytywnie wpływa na pozycjonowanie strony. Obecność w grafach wiedzy czy dodatkowe elementy w SERP mogą wygenerować większy ruch na stronę, przynosząc kolejne korzyści.

Opinie w SERP

Podczas wykonywania optymalizacji można sprawdzić czy dane strukturalne są zainstalowane na stronie. Najczęściej są one umieszczone za pomocą kodu źródłowego zgodnego ze standardami schema.org. Obecność takiego kodu można sprawdzić za pomocą narzędzia do testowania danych strukturalnych udostępnionego przez Google:https://search.google.com/structured-data/testing-tool?hl=pl. Jeżeli na stronie brakuje danych strukturalnych, warto rozważyć ich wdrożenie, oczywiście stosując je zgodnie ze standardami schema.org i budową serwisu.

Technologia wykonania strony

Obszarem dodatkowej uwagi jest technologia wykonania strony internetowej. Budując stronę przyjazną pod SEO należy zwrócić uwagę na fundamentalne elementy strony, które ułatwią późniejszą nawigację po serwisie zarówno robotom wyszukiwarek jak i użytkownikom.

Na co w szczególności zwrócić uwagę?

  • przyjazne adresy URL – poszczególne adresy URL powinny być możliwie krótkie i sugerować użytkownikowi treści jaka znajduję się pod odnośnikiem. Adresy nie powinny zawierać parametrów, polskich znaków oraz wielkich liter. Jako separator w adresie zalecamy korzystanie z myślnika, które roboty traktują jako przerwę pomiędzy wyrazami.

    Przykład nieprzyjaznego adresu URL dla:
    www.example.com/index.php?p1=oferta&p2=pozycjonowanie

    Przykład przyjaznego adresu URL:
    www.example.com/oferta/pozycjonowanie-stron
  • mapa witryny w pliku xml – stosowana w przypadku uruchomieniu nowego serwisu bądź przy problemach z indeksowaniem. Stworzenie mapy witryny obejmującej wszystkie wartościowe podstrony (również grafiki lub dokumenty) i zgłoszenie jej w Google Search Console pomoże w nawigacji robotom wyszukiwarek internetowych.
  • nawigacja w witrynie – strona powinna posiadać przejrzystą strukturę. Najważniejsze podstrony powinny być dostępne już za pomocą 3-4 kliknięcia. Obecność na stronie tzw. nawigacji okruszkowej (breadcrumbs) bądź rozwijane menu ułatwia poruszanie po witrynie.
  • przestarzałe technologie – należy unikać stosowania przestarzałych technologii na stronie np. animacji Flash. Nie jest ona indeksowana przez roboty wyszukiwarek i coraz częściej nie jest wspierana nawet przez przeglądarki internetowe przez co nie wyświetla się użytkownikom.
  • szybkość i mobilność – strona internetowa powinna być dostosowana do urządzeń mobilnych. W tej chwili ruch z urządzeń mobilnych stanowi blisko 40% ogółu użytkowników. Coraz istotniejszym czynnikiem jest szybkość ładowania witryny – dostosowanie kodu źródłowego czy kompresja grafiki jest jednym podstawowych elementów optymalizacji szybkości ładowania witryny.


Czy raz zoptymalizowana strona będzie zawsze rankingować?

Odpowiedź brzmi: NIE! Proces optymalizacji witryny to proces ciągły. Wraz z rozwojem serwisu będzie on wymagał dalszych modyfikacji i udoskonaleń. Nowe podstrony będą wymagać kolejnych działań optymalizacyjnych. Zwiększona widoczność serwisu pozwoli również na promocję na zupełnie nowe wyrażenia kluczowe. Zmieniające się trendy i ciągłe aktualizacje algorytmu wyszukiwarek wymuszają kolejne działania optymalizacyjne, dlatego tak ważne jest stałe monitorowanie kondycji strony i jej obecności w internecie.

Nasi specjaliści pomogą Państwu w przebrnięciu przez wszystkie poruszone powyżej kwestie. Jesteś zainteresowany audytem SEO swojej strony? Skontaktuj się z nami.

Zacznij pozycjonowanie strony już dzisiaj!
Podaj adres strony, którą chcesz promować: