Optymalizacja strony (SEO) – 8 kluczowych czynników
Każdy partner wie, jak ważna jest optymalizacja stron w działaniach afiliacyjnych. W wielu przypadkach jest to główne źródło ruchu na stronie, a zarazem główne źródło przychodów. Dlatego w niniejszym wpisie postanowiłem opisać podstawowe zasady optymalizacji stron, które powinny zostać wdrożone na każdej szanującej się stronie internetowej. Opisane tutaj elementy mają największy wpływ na pozycję witryny w wyszukiwarce. Wpis można potraktować jako checklistę służącą do audytowania strony lub do przeprowadzania optymalizacji. Ważne aby okazał się przydatny.
1. <header> i meta tagi
Header strony internetowej odpowiada za jedne z najważniejszych elementów podczas optymalizacji. Znajdują się w nim elementy przygotowane specjalnie dla robotów wyszukiwarek, takie jak <title> lub meta description. Dlatego trzeba zwrócić na nie szczególną uwagę.
<title>
Tag <title> odpowiada za tytuł strony, który wyświetla wyszukiwarka Google w swoich wynikach wyszukiwania. Jest to jeden z ważniejszych elementów podczas optymalizacji. Warto umieścić w nim słowa kluczowe na których nam zależy. Jednak pamiętajmy aby nie przesadzić. Poza wyszukiwarką tytuł ten jest również widziany przez internautów. To on w głównej mierze decyduje, czy dana osoba odwiedzi akurat Twoją stronę.
Maksymalna długość tytułu wynosi około 65 znaków, a dokładniej 482 pixele.
Tytuł powinien być unikalny na każdej podstronie naszego serwisu.
<meta name=”description”
Opis witryny, podobnie jak tytuł, wyświetlany jest w wynikach wyszukiwania witryny. Również powinien nawiązywać do naszych słów kluczowych. Jego maksymalna długość wynosi około 156 znaków (928 pixeli). Powinien być unikalny na każdej podstronie naszego serwisu.
<meta name=”keywords”
Keyword to archaiczny tag, niegdyś wykorzystywany przez Google do układania rankingu oraz nadużywany przez pozycjonerów. Przez to tag ten nie ma już znaczenia w przypadku SEO. Jeśli jednak chcesz go używać w swoim serwisie, pamiętaj aby znalazło się w nim kilka (a nie kilkadziesiąt) słów. Na dodatek najlepiej gdyby były unikalne w obrębie różnych podstron.
2. <body> i treść na stronie
Treść strony to podstawa dobrej widoczności w wyszukiwarce. Wysoka jakość contentu i jego odpowiednia optymalizacja pozwalają często zgarnąć niezły ruch z długiego ogona (mało popularnych fraz).
Unikalny tekst
Tekst na stronie musi być unikalny! Jest to podstawowa zasada tworzenia treści. Google bardzo dobrze wykrywa treści skopiowane z innych serwisów i równie dobrze ukrywa je na dalekich miejscach w swoich wynikach wyszukiwania. Dlatego darujcie sobie kopiowanie na stronę, gotowych materiałów dostarczonych przez programy partnerskie. Lepiej poświęcić trochę czasu i przerobić je na unikalne.
Wyróżniki – bold, italic, listowanie
Stosowanie wyróżników tekstu jest dobrym rozwiązaniem pod kątem SEO. Wzbogaca treść na stronie w oczach robota. Warto jednak pamiętać, aby wyróżnione były również nasze słowa kluczowe.
Nagłówki Hx
Stosowanie nagłówków również jest dobrze widziane w oczach Google. Nadają one strukturę naszej treści i wskazują na tematykę naszej strony. Stąd kilka zasad dotyczących nagłówków.
- Stosuj 1 (max 2) nagłówki H1,
- Zachowaj strukturę nagłówków – nie może być nagłówka h3, bez nagłowka h2,
- Przemycaj do nich słowa kluczowe – jednak inteligentnie, nie rób z nich zbiorów tagów.
Obrazki
Obrazki wzbogacają treść na stronie, dlatego warto je stosować. Pamiętaj jednak o nadawaniu im opisów „alt”. Robot nie zobaczy obrazka. Możesz przemycić do altów słowa kluczowe.
Ukrywanie treści
Pod żadnym pozorem nie wolno Ci ukrywać treści. Wielu „specjalistów SEO” stosowało takie sztuczki w celu zwiększenia ilości tekstu na stronie. Dla przykładu poprzez atrybut CSS „display: none” lub poprzez pozycjonowanie boxu z tekstem 9999px poza obszarem widocznym na monitorze. Google dobrze radzi sobie z wyłapywaniem takich zabiegów.
Słowa kluczowe w tekście
Pamiętaj oczywiście o umieszczaniu w tekście słów kluczowych. Nie podam Ci ile razy fraza powinna pojawić się w tekście. Nie ma takich danych. Istotne jest aby treść na stronie była mocno związana z tematyką pozycjonowanych fraz. Poza dokładnymi frazami używaj również ich synonimów oraz luźnych powiązań. Google coraz lepiej radzi sobie z semantyką.
3. Linkowanie wewnętrzne i zewnętrzne
Linkowanie wewnętrzne to istotny element optymalizacji strony. Definiuje ono przepływ mocy wewnątrz serwisu. Dlatego musisz zadbać o to, aby podstrony na których Ci zależy były dobrze podlinkowane z innych podstron. Najlepiej jeśli anchor teksty linków wewnętrznych będą odpowiadały pozycjonowanym frazom.
Dobrym pomysłem na usprawnienie linkowania wewnętrznego (w przypadku posiadania bloga) są linki z artykułów oraz pomiędzy artykułami. W przypadku popularnych CMS’ów można wykorzystać do tego specjalne wtyczki.
Jeśli chodzi o linkowanie zewnętrzne, to pamiętaj aby ograniczać liczbę linków wychodzących. Każdy taki link osłabia moc naszego serwisu. Oczywiście w branży afiliacyjnej jest to trudne, dlatego warto zastosować kilka sztuczek.
- atrybut „nofollow” – dodawaj zawsze do linków afiliacyjnych atrybut rel=”nofollow”, instruuje on robota, aby ten nie podążał za tym linkiem, ograniczając tym samym wyciek mocy,
- przekierowania tymczasowe 302 i 307 – dobre rozwiązanie w przypadku afiliacji, po pierwsze ukrywają prawdziwy link docelowy (ref), po drugie nie przekazują mocy.
4. Przekierowania URL
Przekierowania (redirects) to bardzo pomocne narzędzie w przypadku optymalizacji. Pozwalają one ustawić reguły dotyczące naszych adresów URL. Dla przykładu zwykła strona internetowa może być dostępna pod dwoma adresami – www.mojastrona.pl oraz mojastrona.pl. Dla robota obie te strony to różne domeny/serwisy, dlatego musimy ustawić przekierowania jednej wersji adresu na drugą. Poniżej lista innych przydatnych przekierowań.
- www i bez www
- / – wersja ze slashem i bez slasha na końcu adresu
- index.html/php – strona główna często dostępna jest również pod plikiem index
Przekierowania przydatne są również w przypadku zmiany domeny lub zmiany adresu danej podstrony. Za pomocą przekierowania 301 możemy wskazać robotowi nową lokalizację strony/podstrony.
5. Strony 404
Na strony 404 robot trafia rzadko, jednak jeśli już tam trafi, warto pokierować go do odpowiedniego miejsca. Poniżej kilka elementów, które powinna zawierać każda strona 404.
- Wyszukiwarka,
- Linki do najważniejszych podstron (również z punktu widzenia SEO),
- Wyraźny komunikat o błędzie i powodzie jego zaistnienia.
6. Robots.txt
Plik robots.txt odpowiada za sterowanie różnymi botami, m.in. botami wyszukiwarek. Plik ten powinien znajdować się w głównym katalogu naszej strony. Za jego pomocą możemy zablokować możliwość wejścia robotów na naszą stronę, co będzie skutkowało brakiem naszej strony w wynikach wyszukiwania. Dlatego warto sprawdzić czy przypadkiem na naszej stronie nie znajduje się nic podejrzanego w tym pliku. Często systemy CMS (a nawet agencje interaktywne) blokuję stronę przed botami na czas jej tworzenia, a później o tym zapominają.
Jego innym zastosowaniem jest blokowanie konkretnych katalogów, które celowo chcemy ukryć przed wyszukiwarką.
Jeśli nie chcemy blokować strony przed botami, możemy usunąć ten plik z naszego serwera.
7. Sitemap.xml
Plik sitemap.xml, podobnie jak robots.txt, powinien znajdować się w głównym katalogu naszej strony. Plik ten zawiera listę podstron naszego serwisu w wersji xml. Jest to jedno z pierwszych miejsc, które odwiedza bot wyszukiwarki. Znacznie przyspiesza on poprawną indeksację naszej strony, dlatego warto go stworzyć i aktualizować. W tym celu możemy skorzystać z dostępnych generatorów online. Jeśli korzystamy np. z wordpressa, wówczas możemy skorzystać z wtyczki, która na dodatek będzie aktualizowała sitemapę podczas dodawania nowych postów lub podstron.
8. Przetestuj stronę
Na koniec koniecznie przetestuj swoją stronę za pomocą któregoś z narzędzi do audytów SEO. Do wyboru mamy narzędzia online, takie jak www.woorank.com, które z reguły testują wyłącznie zgłoszoną podstronę. Mimo wszystko analizują sporo danych i warto przeskanować nimi naszą witrynę. Woorank niestety ma jedną darmową sesję dla nowego użytkownika, jednak jest chyba najlepszym narzędziem tego typu.
Z drugiej strony mamy dostępne narzędzia desktopowe, które skanują całą witrynę za pomocą własnego bota. Polecanym przeze mnie narzędziem jest Screaming Frog, który dostarcza wiele przydatnych danych w przystępnej formie. W darmowej wersji może przeskanować do 500 elementów na stronę, co w większości wypadków w zupełności wystarcza.
Na co zwracać uwagę podczas skanowania? W przypadku narzędzi online przede wszystkim na ogólne informacje odnośnie niezoptymalizowanych elementów. W przypadku narzędzi desktopowych mamy większe pole do popisu. Przede wszystkim sprawdź, czy bot może dotrzeć na wszystkie podstrony serwisu. Sprawdź, czy wszystkie podstrony zawierają title i description oraz czy są one unikalne (screaming frog sprawdza to domyślnie). Sprawdź czy w serwisie nie ma martwych linków (stron 404). Sprawdź również czy podstrony nie są zduplikowane.
To wszystko! Przedstawione powyżej elementy są z mojego punktu widzenia najważniejsze podczas optymalizacji. Ich wdrożenie powinno dać nam sporą przewagę nad konkurencją. Dlatego proponuję rozpocząć wdrażanie powyższych wskazówek na swoją stronę. W razie pytań zapraszam do komentowania.
W punkcie 1. warto zmienić na , bo ten znacznik chyba miałeś na myśli. Znacznik też istnieje w HTML5, ale jego przeznaczenie jest inne, co może wprowadzać w błąd.
Na ,? Nie wiem, czy serwis nie wyciął Twojego kodu, gdybyś mógł jeszcze raz napisać go w innej formie będę wdzięczny 🙂
Screaming frog jest podlinkowany do wooranka.