SEOmoz, czyli jeden z wiodących serwisów poświęconych tematyce SEO (pozycjonowanie i optymalizacja stron internetowych), a dokładnie Rand Fishkin, opublikował ostatnio bardzo ciekawą infografikę. Poświęcona jest tematyce optymalizacji stron internetowych. Może nie odkryto tu Ameryki i większość specjalistów SEM/SEO zdaje sobie sprawę z istoty wymienionych elementów optymalizacji stron www. Niemniej jednak infografika jest świetnym zestawieniem wszystkich aspektów optymalizacji w jednym miejscu. Podkreślę, że jest świetnym zestawieniem z punktu widzenia wymagań wyszukiwarki Google… Niekoniecznie jednak pewne założenia mają sens z punktu widzenia zdrowego rozsądku. Przyjrzyjmy się im po kolei.

Sprawdź, czy twoja witryna jest zoptymalizowana pod kątem pozycjonowania w wyszukiwarkach – zamów audyt SEO. Sprawdź też ceny kompleksowych audytów.

 

Zobaczcie sami (kliknij, aby powiększyć):

 

Elementy zoptymalizowanej strony www wg MOZ

Optymalizacja strony www

źródło: http://moz.com/rand/wp-content/uploads/2013/08/elements-optimized-lrg.gif

Unikalna wartość strony www

Każda strona internetowa, aby była dobrze widziana i oceniana przez Google (przynajmniej takie jest założenie) musi przedstawiać realną, unikalną wartość dla internauty (w tym przypadku -użytkownika wyszukiwarki). Niestety czasem nie idzie to w parze z biznesem. Google faworyzuje strony zawierające merytoryczny i użyteczny content tekstowy. Prowadzi to do paradoksów, ponieważ użytkownik wyszukiwarki nie zawsze szuka źródła wiedzy na jakiś temat, tylko dostawcy danej usługi. Jeśli mieszkam w Gliwicach i wpisuję hasło „burgery” to chcę w wynikach otrzymywać takie strony: http://www.korovaburger.pl/, a nie http://en.wikipedia.org/wiki/Burger … Po prostu ten pierwszy wynik ma dla mnie większą wartość użytkową. Jak będę chciał zdobyć wiedzę na temat burgerów, to wpiszę sobie „jak się robi burgery” lub „z czego zrobiony jest burger”. Niestety, biorąc pod uwagę wytyczne Google, firma chcąca zaistnieć w sieci ze swoją stroną internetową, powinna zadbać o unikalne (Google nienawidzi kopiowanych treści!) artykuły, treści informacyjne związane z przedmiotem jej działalności.

Użytkownik musi być zachwycony korzystaniem ze strony

Chodzi o to, że dobra strona internetowa to taka, która dostarcza niezapomnianych wrażeń korzystającym z niej internautom… Serio? Serio. Strona musi po pierwsze dostarczać niezbędnych informacji użytkownikowi. Ponadto powinna angażować , skłaniać go do interakcji, przeglądania strony. Jednocześnie musi być użyteczna i łatwa w nawigacji. To doprowadza do kolejnego paradoksu. Strona www z dobrym UX to taka, na której internauta szybko i intuicyjnie znajduje to, czego szukał (można to zbadać zamawiając audyt UX). Z drugiej strony chodzi o to, aby pozostał na stronie długo i nie uciekał z niej zaraz po wejściu. Oczywiście jeśli strona ma charakter rozrywkowy lub edukacyjny, to jest w tym dużo sensu. Jednak jeśli naszym celem jest znalezienie numeru telefonu do danej firmy, a ten jest podany na jej stronie głównej, to po co mamy klikać i szukać dalej? Wybieramy numer i zamykamy stronę. Strona spełniła swoje zadanie. Firma znalazła klienta. Klient znalazł dostawcę usług. Czy strona była wystarczająco użyteczna i dostarczyła odpowiednich wrażeń? Pozostawiam to pytanie bez odpowiedzi.

Poza tymi wymogami należy pamiętać, aby strona ładowała się szybko… Jednak nie wiem, czy to ma aż takie znaczenie dzisiaj. Kiedyś (gdy większość z nas łączyło się przez modem) rzeczywiście trzeba było czekać na ładowanie strony parę (-naście?) sekund. Wówczas robiło to różnicę. Teraz niespecjalnie mnie obchodzi, czy strona ładuje się w 0,04, czy 0,4 sekundy. Dla Google jednak jest to istotna różnica.

Odpowiednie nasycenie frazami, na które ma pojawiać się w wynikach wyszukiwania

Jest to niejako oczywiste. Roboty Google crawlują (przeczesują, przeszukują) każdą ze stron i umieszczają ją w swoim indeksie razem z informacją – o czym jest ta strona. Informację taką zdobywają między innymi z treści tekstowych zawartych na danej stronie www. Zatem jeśli masz stronę internetową o produkcie X, to nie może być tak, że w tekstach na stronie hasło „produkt X” pojawia się tylko raz. Musi pojawiać się stosunkowo często, musi być dominującym, powtarzającym się słowem w contencie. Jednak nie można przesadzić.

Kiedyś, gdy pozycjonowanie raczkowało (i Google też), można było nasycić stronę słowami kluczowymi praktycznie w 100 procentach (jak nagłówek tego akapitu) i przynosiło to wyniki. Następnie zmieniono algorytmy, aby ukrócić takie praktyki i przyjęto, że optymalne nasycenie strony słowami kluczowymi, to 3-5%… Idea jest taka, że słowa kluczowe mają pojawiać się w tekście w sposób naturalny, nienachalny. A kto to ocenia? To jest zawsze zabawa w kotka i myszkę. Niemniej jednak należy pamiętać, aby słowa kluczowe w tekście, nawet jeśli nie jest ich tak dużo, były wyróżnione – w tekście linków, pogrubione, w nagłówkach etc.

Warto też pamiętać, w kontekście słów kluczowych, o zoptymalizowanych adresach URL (adresy tekstowe – http://www.cośtam.pl/zawartość). Najlepiej, gdy sama domena zawiera słowo kluczowe i każda podstrona jest odpowiednio zatytułowana i posiada adekwatny adres. Zatem lepiej mieć stronę www.producentX.pl i podstrony www.producentX.pl/produkt1, niż www.nazwafirmy.pl/zobacz-to lub /30141.html.

Ułatwienia udostępniania w sieciach społecznościowych

Nie jest tajemnicą, że media społecznościowe (zwłaszcza Facebook i Twitter) skupiają bardzo dużą uwagę internautów. Do coraz większej ilości informacji docieramy przez serwisy społecznościowe. Dlatego też każda strona internetowa powinna być zoptymalizowana pod tym kątem. Powinna posiadać link do fanpage lub innej strony w social media. Użytkownik powinien mieć możliwość udostępnić wybrane treści z poziomu strony internetowej, bez konieczności kopiowania adresu URL i wklejania go do danej społecznościówki. Ponadto adresy URL muszą same w sobie posiadać wartość informacyjną (podobnie jak meta tagi tytułowe wyświetlane przy linkach np. na Facebooku). Po prostu internauta musi wiedzieć w co klika. Nie wiem jak to się ma do Twittera, na którym dominują skrócone linki nie niosące żadnej wartości informacyjnej… No cóż. Chyba chodzi głównie o Facebook’a, czy Google+.

Strona powinna być dostępna z różnych urządzeń i systemów

To jest chyba oczywiste. Kiedyś wszyscy używali komputerów PC z Windowsem i Internet Explorerem. Później popularność zyskały nowe przeglądarki i powstał wymóg, aby strony dobrze prezentowały się na każdej z nich. Następnie pojawiły się laptopy i nowe monitory o różnych szerokościach i rozdzielczościach. Od paru lat coraz większy udział na rynku zdobywają smartphone’y i tablety z nowymi systemami, przeglądarkami i ekranami. Strony internetowe muszą nadążać za tymi zmianami. W związku z tym warto dbać, by nasze strony posiadały wersję mobilną lub były responsywne (dostosowywały się do urządzenia i technologii, przy pomocy których są wyświetlane). W przypadku niektórych stron internetowych, także firmowych (np. usługi lokalne, knajpy – miejsca, których szukamy będąc poza domem), prawidłowe wyświetlanie na komórkach może być nawet ważniejsze niż na komputerach.

Strona musi być łatwo dostępna dla robotów wyszukiwarek

W tym przypadku mamy do czynienia z wymogami technicznymi. Na to powinien zwrócić uwagę każdy programista, webmaster, który tworzy strony www. Po pierwsze warto, aby strona miała statyczne adresy (bez dynamicznych parametrów). Po drugie powinna posiadać odpowiednie przekierowania (np. 301) i unikać duplicate content (np. przy pomocy tagu canonical). Jej struktura powinna pozwalać na dotarcie do dowolnej podstrony w max. 4 kliknięciach. Meta tagi powinny być optymalizowane tak, aby były dobrze widoczne w wynikach wyszukiwania. Każdy URL, który ma być widoczny dla robotów powinien znajdować się w udostępnionej mapie strony w formacie XML. No i fundamentalna kwestia – odpowiednie ustawienia w pliku robots oraz w tagu meta robots. Jeśli tam znajdą się parametry noindex, nofolllow, to możemy sobie optymalizować resztę do woli, a wyników w wyszukiwarce i tak nie zobaczymy…

Tytuł, opis, snippety zoptymalizowane pod użytkownika

Osiąganie wysokich pozycji to jedna, ale osiągnięcie wysokiego CTR (współczynnik kliknięć do liczby wyświetleń) to także kwestia tego, co użytkownik widzi przy danym wyniku – optymalizowanej przez nas stronie. Tytuł strony musi posiadać kluczowe informacje i być czytelny. Nie może zawierać jedynie nazwy firmy i np. popularnej frazy „Strona główna” lub „Start”… Raczej powinien zawierać 2,3 słowa kluczowe, informacje dotyczące lokalizacji (jeśli to firma, usługa lokalna). W opisie (meta descritpion) powinny znaleźć się sformułowania skłaniające do kliknięcia. Są to tak zwane zwroty CTA – call to action. Są to po prostu sugestie: sprawdź, zobacz, kliknij, odwiedź itd. Wbrew pozorom to naprawdę zwiększa klikalność w dany wynik. Warto też korzystać z tzw. rich snippets, czyli rozbudowanych, rozszerzonych wyników wyszukiwania. Mogą przyjmować różną formę – ocenę artykułu, autora, linki do innych podstron, informację z social media, linki do filmów, rozbudowane opisy etc. To przyciąga uwagę internauty i pomaga mu upewnić się, że Twoja strona internetowa jest tą, której szuka.

Optymalizacja stron www – Proste? Niekoniecznie

Wydawałoby się, że podążając krok po kroku za wytycznymi SEOmoz można łatwo i szybko optymalizować stronę internetową. Serio? Nie wydaje mi się. Optymalizacja stron www nie jest czynnością mechaniczną, rutynową i łatwą. Gdyby tak było, to można by jej dokonywać za pomocą jakiegoś programu. Ponadto, osoba (lub zespół) dokonująca optymalizacji musi posiadać wiedzę nie tylko z zakresu pozycjonowania, ale także webmasteringu, programowania i marketingu internetowego. Osoba ta powinna poświęcić czas na poznanie otoczenia i klientów firmy, dla której optymalizuje stronę. Jeśli szukasz kogoś, kto się podejmie takiego zadania – napisz. Otrzymasz wycenę audytu swojej strony internetowej, na podstawie której powstanie plan optymalizacji i scenariusz dalszych działań marketingowych.

Pin It on Pinterest

Shares