Pozycjonowanie a zmiany algorytmów wyszukiwarki Google

  • Autor: Łukasz
algorytmy w pozycjonowaniu stron
algorytmy w pozycjonowaniu stron

Jak uchronić nasze pozycjonowanie przed wpływem zmian robotów Google?

Algorytm wyszukiwarki Google jest jednym z najbardziej rozbudowanych algorytmów stowrzonych kiedykolwiek przez człowieka. Chodzi tu o zasięg jego działania, stopień złożoności oraz ilość branych pod uwagę zmiennych środowiska, które ulega bardzo dynamicznym zmianom. Jeżeli chodzi o pozycjonowanie to trzeba brać pod uwagę fakt, iż wyszukiwarka nieustannie zmienia swoje algorytmy wprowadzając stosowne zmiany aby jakość wyników zwracanych Klientowi spełniała jego oczekiwania. Duże aktualizacje mogą mieć bardzo poważny wpływ na pozycjonowanie naszych stron. Wielokrotnie po update'ach silnika wyszukiwania zauważyć można nie tylko wachnięcia w pozycjach ale również odczuwalne spadki. Czy jest zatem sposób aby przygotować się na zmianę algorytmu? Liczne poprawki i kosmetyczny zmiany w algorytmie Google'a wdrażane są praktycznie codziennie a mają one wpływ na precyzyjniejsze dostarczanie odpowiedzi na zapytania kierowane przez użytkownika. Te codzienne update'ty zwykle nie mają wpływu na zauważalne tąpnięcia w pozycjonowaniu, czasami są to przetasowania na listach wyszukiwania, czasem przetasowania w pozycjach na mapie. Systematyczne aktualizowanie strony może zwiększyć bezpieczeństwo i uodpornić nasze pozycjonowanie na tego typu działania. Gorzej jednak bywa w przypadku jeżeli wyszukwiarka wprowadza zmiany swojego rdzennego (core) głównego algorytmu. Cześto okazać się może że wyniki wyszukiwania, o które zabiegaliśmy legły w gruzie a nasza strona ze stabilnych wysokich pozycji budowanych przez lata wypadła w daleką odchłań. Jak zatem naprawić nasze pozycjonowanie? Wyszukiwarka Google wdraża zmiany swojego rdzennego algorytmu kilka razy w roku. Te zmiany mają na celu pomóc witrynom zawierającym unikatowe, wartościowe i ciekawe treści wynieść się na wysokie pozycje wyników wyszukiwania. Wynika to z dawno przyjętej filozofii firmy Google która przede wszystkim chce zwracać jak najbardziej rzetelne i jakościowe wyniki. Często to jednak nie jest spełniane gdyż na przykładzie wyszukiwania lokalnego często po wpisaniu nazwy usługi z nazwą miasta widzimy na wysokich pozycjach "strony słupy" firm z innych miast, sztucznie tworzących content zwiazany z ofertą danych usług na dany rynek niekoniecznie związany z fizyczną lokalizacją danej firmy. Mamy rok 2020 i jak widać nadal Google ma z tym problem. Taka mała dygresja - wystarczy w wyszukiwarce wpisać "pozycjonowanie stron bielsko" i oprócz firm fizycznie zlokalizowanych w mieście Bielsko, widzimy również firmy z innych miast, pomino iż firma usługowa z tej branży nie znajduje się w mieście Bielsko. Jak zatem wyprzedzić fakty i nie dać się powyższym zmianom? Czy można sie na tą ewentualność przygotować i czy istnieje skuteczny sposób aby wzmocnić swoje pozycjonowanie zanim te zmiany nastąpią? Wyszukiwarka Google już od dłuższego czasu wychodzi naprzeciw właścicielom stron, autorom i deweloperom wysyłająć stosowne informacje (mailowo) dotyczące uwag i błędów na stronie wymaganych do naprawienia przed zmieniającymi się uwarunkowaniami technicznymi i technologicznymi związanymi przede wszystkim z user experience (UX/UI). Spadek strony w przypadku nagłych update'ów algorytmów wyszukiwania często nie wynika z faktu że pozycjonowanie jest nieprawidłowe, sprzeczne z polityką Google'a czy też sama strona jest obciążona zawartością błędów technicznych powodujących jej spadek. Takie informacje często są wysyłane przez Google w przypadku zmian możliwych do wdrożenia przez deweloperów czy osób zarządzających danym serwisem. Czy zatem w momencie kiedy chwilowo spadnie pozycjonowanie należy reagować natychmiast? Nie zawsze jest to wskazane, podstawowym aspektem procesu jakim jest stabilne i długofalowe pozycjonowanie powinien być czas. Zatem warto nie reagować impulsywnie, nie starać się na siłę przeprowadzać rewolucyjnych zmian. Często zdarza się bowiem, iż pierwotne pozycje wracają bez jakiejkolwiek ingerencji dewelopera czy osoby odpowiedzialnej za SEO (mowa o stronach które przez długi czas utrzymywały się na wysokich pozycjach, nie piszemy tutaj o świeżych dopiero co publikowanych serwisach czy stronach po migracjach domen). Jeśli jednak zdarzy się tak, że przez odczuwalny okres czasu nasza strona nie wraca na wcześniejsze pozycje, a od strony technicznej i obsługi przez użytkownika nie wykryto żadnych nieprawidłości, najlepszym sposobem na pierwsze podejmowane czynności powinno być zadbanie o właściwe treści czyli content strony, które stanowią nie tylko teksty ale i pomniejsze roli materiały takie jak zdjęcia, filmy i inne media. Jakie zatym powiny być nasze treści aby podratować pozycjonowanie? Teksty powinny przede wszystkim spełniać kilka podstawowych kryteriów jakościowych stawianych jako wymóg wyszukiwarki Google. Teksty przede wszystkim muszą być autorskie - czyli nie kopiowane z innych stron. Algorytmy wyszukiwarki Google są wstanie doskonale porownać nasze treści z innymi przez nią zaindeksowanymi ponieważ "posiada ona w swojej bazie" defacto "kopie" wszystkich zaindeksowanych na świecie stron. Dlatego bez problemu wyłapie treści kopiowane metodą copy & paste. Unikalność tekstów w rozumieniu algorytmów Google ma stanowić nowość tematyczną wniesioną do sieci internetowej, dlatego powielanie czegość co już powstało wcześnie, algorytmy traktują jak coś zupełnie bezwartościowego. Nawet jeśli skopiowalibyśmy setki artykułów z internetu, nie wnosimy do przestrzeni nic nowego, zatem potencjał tekstów wtórnie użytych na stronie jest zerowy (a nawet ujemny jeśli bazujemy na tworzeniu naszej strony korzystając w 100% z materiałów kopiowanych). Kolejnym aspektem branym pod uwagę jest kwestia długości czyli objętości tekstów. Wszelkie strony "pigułki" któe zawierają minimalistyczną ilość tekstów, bazują na wypunktowaniach i fragmentarycznych opisach są traktowane gorzej niż te które posiadają rozwiniętą "prozę", rozbudowane opisy. Same linki, nagłówki jak i adresy stron muszą mieć odzwierciedlenie z tekstami na nich zawartymi, olinkowanie oraz tytuowanie musi iść w parze z tym co de facto znajduje się w kontencie strony. Nie bez znaczenia jest również atrakcyjność w/w treści z punktu widzenia odbiorcy. Dlaczego? ma to bowiem wpływ na współczynnik odrzuceń, czasu przebywania czytelnika na stronie. Weryfikacja tej zależności równiez jest brana pod uwagę przez roboty wyszukiwarki Google.