Optymalizacja strony (SEO) – 8 kluczowych czynników

8 czynników- optymalizacja strony (SEO)

Każdy partner wie, jak ważna jest optymalizacja stron w działaniach afiliacyjnych. W wielu przypadkach jest to główne źródło ruchu na stronie, a zarazem główne źródło przychodów. Dlatego w niniejszym wpisie postanowiłem opisać podstawowe zasady optymalizacji stron, które powinny zostać wdrożone na każdej szanującej się stronie internetowej. Opisane tutaj elementy mają największy wpływ na pozycję witryny w wyszukiwarce. Wpis można potraktować jako checklistę służącą do audytowania strony lub do przeprowadzania optymalizacji. Ważne aby okazał się przydatny.

1. <header> i meta tagi

Header strony internetowej odpowiada za jedne z najważniejszych elementów podczas optymalizacji. Znajdują się w nim elementy przygotowane specjalnie dla robotów wyszukiwarek, takie jak <title> lub meta description. Dlatego trzeba zwrócić na nie szczególną uwagę.

<title>

Tag <title> odpowiada za tytuł strony, który wyświetla wyszukiwarka Google w swoich wynikach wyszukiwania. Jest to jeden z ważniejszych elementów podczas optymalizacji. Warto umieścić w nim słowa kluczowe na których nam zależy. Jednak pamiętajmy aby nie przesadzić. Poza wyszukiwarką tytuł ten jest również widziany przez internautów. To on w głównej mierze decyduje, czy dana osoba odwiedzi akurat Twoją stronę.

Maksymalna długość tytułu wynosi około 65 znaków, a dokładniej 482 pixele.

Tytuł powinien być unikalny na każdej podstronie naszego serwisu.

<meta name=”description”

Opis witryny, podobnie jak tytuł, wyświetlany jest w wynikach wyszukiwania witryny. Również powinien nawiązywać do naszych słów kluczowych. Jego maksymalna długość wynosi około 156 znaków (928 pixeli). Powinien być unikalny na każdej podstronie naszego serwisu.

<meta name=”keywords”

Keyword to archaiczny tag, niegdyś wykorzystywany przez Google do układania rankingu oraz nadużywany przez pozycjonerów. Przez to tag ten nie ma już znaczenia w przypadku SEO. Jeśli jednak chcesz go używać w swoim serwisie, pamiętaj aby znalazło się w nim kilka (a nie kilkadziesiąt) słów. Na dodatek najlepiej gdyby były unikalne w obrębie różnych podstron.

2. <body> i treść na stronie

Treść strony to podstawa dobrej widoczności w wyszukiwarce. Wysoka jakość contentu i jego odpowiednia optymalizacja pozwalają często zgarnąć niezły ruch z długiego ogona (mało popularnych fraz).

Unikalny tekst

Tekst na stronie musi być unikalny! Jest to podstawowa zasada tworzenia treści. Google bardzo dobrze wykrywa treści skopiowane z innych serwisów i równie dobrze ukrywa je na dalekich miejscach w swoich wynikach wyszukiwania. Dlatego darujcie sobie kopiowanie na stronę, gotowych materiałów dostarczonych przez programy partnerskie. Lepiej poświęcić trochę czasu i przerobić je na unikalne.

Wyróżniki – bold, italic, listowanie

Stosowanie wyróżników tekstu jest dobrym rozwiązaniem pod kątem SEO. Wzbogaca treść na stronie w oczach robota. Warto jednak pamiętać, aby wyróżnione były również nasze słowa kluczowe.

Nagłówki Hx

Stosowanie nagłówków również jest dobrze widziane w oczach Google. Nadają one strukturę naszej treści i wskazują na tematykę naszej strony. Stąd kilka zasad dotyczących nagłówków.

  • Stosuj 1 (max 2) nagłówki H1,
  • Zachowaj strukturę nagłówków – nie może być nagłówka h3, bez nagłowka h2,
  • Przemycaj do nich słowa kluczowe – jednak inteligentnie, nie rób z nich zbiorów tagów.

 

Obrazki

Obrazki wzbogacają treść na stronie, dlatego warto je stosować. Pamiętaj jednak o nadawaniu im opisów „alt”. Robot nie zobaczy obrazka. Możesz przemycić do altów słowa kluczowe.

Ukrywanie treści

Pod żadnym pozorem nie wolno Ci ukrywać treści. Wielu „specjalistów SEO” stosowało takie sztuczki w celu zwiększenia ilości tekstu na stronie. Dla przykładu poprzez atrybut CSS „display: none” lub poprzez pozycjonowanie boxu z tekstem 9999px poza obszarem widocznym na monitorze. Google dobrze radzi sobie z wyłapywaniem takich zabiegów.

Słowa kluczowe w tekście

Pamiętaj oczywiście o umieszczaniu w tekście słów kluczowych. Nie podam Ci ile razy fraza powinna pojawić się w tekście. Nie ma takich danych. Istotne jest aby treść na stronie była mocno związana z tematyką pozycjonowanych fraz. Poza dokładnymi frazami używaj również ich synonimów oraz luźnych powiązań. Google coraz lepiej radzi sobie z semantyką.

3. Linkowanie wewnętrzne i zewnętrzne

Linkowanie wewnętrzne to istotny element optymalizacji strony. Definiuje ono przepływ mocy wewnątrz serwisu. Dlatego musisz zadbać o to, aby podstrony na których Ci zależy były dobrze podlinkowane z innych podstron. Najlepiej jeśli anchor teksty linków wewnętrznych będą odpowiadały pozycjonowanym frazom.

Dobrym pomysłem na usprawnienie linkowania wewnętrznego (w przypadku posiadania bloga) są linki z artykułów oraz pomiędzy artykułami. W przypadku popularnych CMS’ów można wykorzystać do tego specjalne wtyczki.

Jeśli chodzi o linkowanie zewnętrzne, to pamiętaj aby ograniczać liczbę linków wychodzących. Każdy taki link osłabia moc naszego serwisu. Oczywiście w branży afiliacyjnej jest to trudne, dlatego warto zastosować kilka sztuczek.

  • atrybut „nofollow” – dodawaj zawsze do linków afiliacyjnych atrybut rel=”nofollow”, instruuje on robota, aby ten nie podążał za tym linkiem, ograniczając tym samym wyciek mocy,
  • przekierowania tymczasowe 302 i 307 – dobre rozwiązanie w przypadku afiliacji, po pierwsze ukrywają prawdziwy link docelowy (ref), po drugie nie przekazują mocy.


4. Przekierowania URL

Przekierowania (redirects) to bardzo pomocne narzędzie w przypadku optymalizacji. Pozwalają one ustawić reguły dotyczące naszych adresów URL. Dla przykładu zwykła strona internetowa może być dostępna pod dwoma adresami – www.mojastrona.pl oraz mojastrona.pl. Dla robota obie te strony to różne domeny/serwisy, dlatego musimy ustawić przekierowania jednej wersji adresu na drugą. Poniżej lista innych przydatnych przekierowań.

  • www i bez www
  • / – wersja ze slashem i bez slasha na końcu adresu
  • index.html/php – strona główna często dostępna jest również pod plikiem index

Przekierowania przydatne są również w przypadku zmiany domeny lub zmiany adresu danej podstrony. Za pomocą przekierowania 301 możemy wskazać robotowi nową lokalizację strony/podstrony.

5. Strony 404

Na strony 404 robot trafia rzadko, jednak jeśli już tam trafi, warto pokierować go do odpowiedniego miejsca. Poniżej kilka elementów, które powinna zawierać każda strona 404.

  • Wyszukiwarka,
  • Linki do najważniejszych podstron (również z punktu widzenia SEO),
  • Wyraźny komunikat o błędzie i powodzie jego zaistnienia.


6. Robots.txt

Plik robots.txt odpowiada za sterowanie różnymi botami, m.in. botami wyszukiwarek. Plik ten powinien znajdować się w głównym katalogu naszej strony. Za jego pomocą możemy zablokować możliwość wejścia robotów na naszą stronę, co będzie skutkowało brakiem naszej strony w wynikach wyszukiwania. Dlatego warto sprawdzić czy przypadkiem na naszej stronie nie znajduje się nic podejrzanego w tym pliku. Często systemy CMS (a nawet agencje interaktywne) blokuję stronę przed botami na czas jej tworzenia, a później o tym zapominają.

Jego innym zastosowaniem jest blokowanie konkretnych katalogów, które celowo chcemy ukryć przed wyszukiwarką.

Jeśli nie chcemy blokować strony przed botami, możemy usunąć ten plik z naszego serwera.

7. Sitemap.xml

Plik sitemap.xml, podobnie jak robots.txt, powinien znajdować się w głównym katalogu naszej strony. Plik ten zawiera listę podstron naszego serwisu w wersji xml. Jest to jedno z pierwszych miejsc, które odwiedza bot wyszukiwarki. Znacznie przyspiesza on poprawną indeksację naszej strony, dlatego warto go stworzyć i aktualizować. W tym celu możemy skorzystać z dostępnych generatorów online. Jeśli korzystamy np. z wordpressa, wówczas możemy skorzystać z wtyczki, która na dodatek będzie aktualizowała sitemapę podczas dodawania nowych postów lub podstron.

8. Przetestuj stronę

Na koniec koniecznie przetestuj swoją stronę za pomocą któregoś z narzędzi do audytów SEO. Do wyboru mamy narzędzia online, takie jak www.woorank.com, które z reguły testują wyłącznie zgłoszoną podstronę. Mimo wszystko analizują sporo danych i warto przeskanować nimi naszą witrynę. Woorank niestety ma jedną darmową sesję dla nowego użytkownika, jednak jest chyba najlepszym narzędziem tego typu.

Z drugiej strony mamy dostępne narzędzia desktopowe, które skanują całą witrynę za pomocą własnego bota. Polecanym przeze mnie narzędziem jest Screaming Frog, który dostarcza wiele przydatnych danych w przystępnej formie. W darmowej wersji może przeskanować do 500 elementów na stronę, co w większości wypadków w zupełności wystarcza.

Na co zwracać uwagę podczas skanowania? W przypadku narzędzi online przede wszystkim na ogólne informacje odnośnie niezoptymalizowanych elementów. W przypadku narzędzi desktopowych mamy większe pole do popisu. Przede wszystkim sprawdź, czy bot może dotrzeć na wszystkie podstrony serwisu. Sprawdź, czy wszystkie podstrony zawierają title i description oraz czy są one unikalne (screaming frog sprawdza to domyślnie). Sprawdź czy w serwisie nie ma martwych linków (stron 404). Sprawdź również czy podstrony nie są zduplikowane.

To wszystko! Przedstawione powyżej elementy są z mojego punktu widzenia najważniejsze podczas optymalizacji. Ich wdrożenie powinno dać nam sporą przewagę nad konkurencją. Dlatego proponuję rozpocząć wdrażanie powyższych wskazówek na swoją stronę. W razie pytań zapraszam do komentowania.


Podobało Ci się? Podziel się...

Opinie (3)

  1. W punkcie 1. warto zmienić na , bo ten znacznik chyba miałeś na myśli. Znacznik też istnieje w HTML5, ale jego przeznaczenie jest inne, co może wprowadzać w błąd.

    • Na ,? Nie wiem, czy serwis nie wyciął Twojego kodu, gdybyś mógł jeszcze raz napisać go w innej formie będę wdzięczny :)

  2. Screaming frog jest podlinkowany do wooranka.

Dodaj opinię

Twój email nie będzie opublikowany.

*

Możesz użyć HTML'a: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>