Trudno oczekiwać, że Google wyjawi nam wszystkie czynniki, jakimi kierują się algorytmy odpowiadające za ranking stron w wyszukiwarce. Elementy, które mają istotny wpływ na ranking stron, ulegają ciągłym zmianom i tylko uważne obserwacje wyników pozwalają opracować nowe, skuteczne metody działania oraz ustrzec się przed nagłymi spadkami.

Rok 2015 już za nami, pora więc na krótkie podsumowanie tego, co przez minione 12 miesięcy najbardziej zaprzątało głowę specjalistów SEO. Z czym się więc zmierzyliśmy?

HTTPS

Czym jest protokół HTTPS każdy mniej lub bardziej kojarzy. Charakterystyczna kłódeczka na pasku przeglądarki wzbudza zaufanie i informuje, że podawanie danych na stronie, na której się znajdujemy jest bezpieczne. A przynajmniej bardziej bezpieczne niż na stronach pozbawionych tego protokołu. Tymczasem Google oficjalnie poinformowało, że wykorzystanie protokołu HTTPS stanie się czynnikiem rankingowym. Choć zapewniający bezpieczeństwo HTTPS ma swoje plusy, jego popularność wciąż nie wzrasta ze względu na dość istotne kwestie, takie jak obniżenie prędkości ładowania się strony, czy większe obciążenie serwera ze strony protokołu. Prędkość ładowania się strony liczy się w rankingu, zatem… Coś za coś. Poza tym, certyfikat jest płatny i nie każdy właściciel strony ma ochotę wyłożyć od kilkudziesięciu do nawet kilkuset złotych, a potem martwić się o to, czy strona jest dostosowana do zaimplementowania na niej certyfikatu.

User Experience i nacisk na content

W 2015 roku można mówić o zwrocie w kierunku użytkownika. Rosnąca popularność tematyki UX odbija się również na pozycjonowaniu, co wymusiło konieczność zmiany taktyki i dostosowania stron do nowych, często rygorystycznych wymagań Google’a. Nawet jeśli wymagany jest większy nakład pracy, zdecydowanie przekłada się to na wyniki. I nie tylko wynik w wyszukiwarce jest nagrodą – przyjazna dla użytkownika strona świadczy o profesjonalnym podejściu oraz zatrzymuje na stronie, by zapoznać się z jej treścią. Funkcjonalność i użyteczność – na to należy położyć nacisk w projektowaniu stron, aby doświadczenie użytkownika związane z naszą marką było jak najlepsze.

Żeby znaleźć się wysoko w wyszukiwarce, nie liczy się już tylko kwestia sieci linków prowadzących do naszej strony (tak naprawdę lepiej mieć kilka odnośników w wartościowych miejscach, niż setki linków niskiej jakości). Treść strony stała się kwestią pierwszorzędną. Nasycenie tekstu słowami kluczowymi to fatalne rozwiązanie i może na nas ściągnąć działania ze strony Google’a, przez co wypadniemy z wyników wyszukiwania lub nasza pozycja znacznie się obniży. Jedno wystąpienie zdecydowanie wystarczy. Optymalizacja naszej strony powinna być zatem rozsądna! Pamiętajmy o nagłówkach, zadbajmy o długość tekstów, nie zapominajmy o opisach zdjęć, by nasza strona była różnorodna i interesująca.

Mobilgeddon

Cóż, Google niejako wymusiło na twórcach stron, by tworzyli witryny dostosowane do wszystkich urządzeń – dostępność wersji mobilnej stała się jednym z czynników rankingowych wyszukiwarki. Rosnącą popularność urządzeń mobilnych można było zauważyć już wcześniej, jednak teraz, gdy okazało się, że ponad połowa zapytań w wyszukiwarce pochodzi z urządzeń mobilnych, ktoś poszedł po rozum do głowy i doszedł do wniosku, że trzeba ułatwić użytkownikom sprawę i wymusić na twórcach stron udostępnianie lekkich witryn, dostosowanych do ich potrzeb. Strony mają być więc funkcjonalne, istotna stała się szybkość ładowania strony, bo w przypadku sieci komórkowych ta często diametralnie różni się od dostępu do bezprzewodowego Internetu. Należy zaznaczyć, że stworzenie responsywnej strony internetowej wcale nie należy do skomplikowanych, a jej sprawne działanie zdecydowanie zachęca użytkownika do pozostania na niej.

Zmiany w algorytmach Google’a

Niektórych aktualizacja algorytmu przyprawiła niemal o zawał. Nowy algorytm? A po co to? Dlaczego? Co to zmieni?

Najpierw dostaliśmy nową wersję algorytmu Panda. Można się jednak zastanawiać, czy przypadkiem to niespiesznie działające ulepszenie nie powinno nazywać się Ślimakiem, ponieważ jego skutki uwidaczniają się dopiero po długich obserwacjach. Panda 4.2 wymusza na twórcach stron nacisk na jakość. Ma za zadanie eliminować strony pozbawione wartości, a zatem pod ostrzałem tej aktualizacji znajdzie się wszelki spam, nadmiarowe linki i inne działania, za pomocą których pozycjonerzy pogrywają w bardzo nieelegancki sposób.

Jakby nie wystarczyło już zmian na ten rok, Google pod koniec października zaserwował nam niespodziankę w postaci RankBraina. System ten obsługuje zapytania, które nie były wcześniej wprowadzane w wyszukiwarkę. Chociaż informacja została ogłoszona dopiero wtedy, algorytm został wdrożony znacznie wcześniej. Głośno mówi się o tym, że system może nosić miano sztucznej inteligencji, jednak czy naprawdę można pokusić się o przyklaśnięcie temu określeniu, to już problem raczej… filozoficzny. Z całą pewnością jednak można mówić, że to doskonały przykład uczenia maszynowego, bo RankBrain jest bardzo pojętnym uczniem i uczy się na danych, które zostają mu dostarczone przez użytkowników wyszukiwarki. RankBrain ma za zadanie ułatwić poszukiwania, a jego działanie to próba odpowiedzi na pytanie, co było intencją użytkownika, gdy wpisywał dane hasło. Co to znaczy dla SEO? Póki co… Wydaje się, że choć informacja ta była szokująca, to ci, którzy zadbali już o wymienione wyżej kwestie, są bezpieczni. Można jednak się spodziewać, że im bardziej zaawansowany stanie się ten system, tym więcej będzie od nas wymagał – i może wtedy faktycznie odbić się na taktykach SEO.

Pozostaje nam więc to, co zwykle – uważna obserwacja, jakie rezultaty przynoszą nasze działania i to, co w SEO najważniejsze – zdrowy rozsądek.

Kategoria: Pozycjonowanie

Tagi: , , ,

Możliwość komentowania jest wyłączona.

Najpopularniejsze wpisy