Dołącz do czytelników
Brak wyników

SEM/SEO

10 maja 2022

NR 63 (Kwiecień 2022)

SEO 2022 – o czym pamiętać, by nie podpaść algorytmowi Google

0 47

Wiele mówi się w ostatnim czasie o wzroście znaczenia technicznych aspektów marketingu internetowego. Google coraz chętniej komunikuje, czego oczekuje od właścicieli serwisów, a oni coraz lepiej starają się sprostać tym wymaganiom przy wsparciu ścisłych umysłów i pasjonatów nowych technologii. Na co warto zwrócić uwagę w 2022 r.?

Dlaczego SEO techniczne?

W minionym roku ogromną wagę przywiązywaliśmy do Core Web Vitals (CWV). Działo się tak nie bez powodu; pierwsze oficjalne wzmianki na ten temat pojawiły się już w połowie 2020 r. Następnie udostępniona została dokumentacja na blogu Google, skierowana do specjalistów SEO oraz web developerów. Google podał więc szczegółowe wytyczne dotyczące standardów czasu i przebiegu wczytywania, które powinny spełniać strony internetowe. Z dużym wyprzedzeniem została także zapowiedziana data aktualizacji algorytmu wprowadzająca te zmiany w życie. Niektórzy specjaliści nie doceniają CWV i ich roli w SEO, warto jednak zauważyć, że w sposób pośredni istotnie wpływają one na elementy typu indeksacja serwisu czy konwersja na stronie. W ankiecie przeprowadzonej przez serwis sitechecker.pro aż 44% spośród wszystkich specjalistów SEO, którzy wzięli w niej udział, wskazało, że optymalizacja strony pod CWV jest jedną z najbardziej wyolbrzymionych technik SEO (rys. 1).
 

POLECAMY


Rola CWV może być bagatelizowana, ponieważ problemy z nimi związane mocniej dotkną strony internetowe o wolumenie setek tysięcy adresów URL niż małe domeny z blogiem i kilkoma stronami ofertowymi.
W zakresie indeksacji CWV wymuszają na stronach, aby:

  • działały wystarczająco szybko, by mogły zostać w pełni scrawlowane;
  • nie zawierały niestabilności wizualnych, utrudniających korzystanie z witryny;
  • lepiej zarządzały zasobami procesora podczas wczytywania i użytkowania strony.

Wszystkie powyższe elementy przekładają się bezpośrednio na czas skanowania i renderowania podstron. Poprzez szybkie działanie witryny zyskujemy więc możliwość przeskanowania większej liczby stron w takim samym czasie. W dotychczasowych rozważaniach kierowaliśmy się perspektywą optymalizowanej witryny lub użytkownika ją odwiedzającego. 
Dla Google czas wczytywania i łatwość dostępu do strony mają ogromne znaczenie, ponieważ ich robot musi z każdym rokiem sprawdzać dziesiątki milionów stron więcej, które w swojej budowie stają się bardziej skomplikowane. Dlatego też w miarę rozrostu internetu element ten będzie stale zyskiwał na znaczeniu.
Nie należy także zapominać o poprawnej strukturze serwisu, umożliwiającej robotowi Google dotarcie do każdego zakamarka naszej strony, a w szczególności do częstszego odwiedzania tych obszarów witryny, które są najważniejsze. Dodatkowo wszystkie treści znajdujące się na stronie powinny być możliwie łatwe do odczytania i wyrenderowania.
Warto wspomnieć o tym, że wiele z wytycznych Google’a wymusza na twórcach stron stosowanie jak najlepszego User Experience (UX). Od dawna wytyczne te nie mają na celu tylko poprawienia jakości wyszukiwarki, lecz dotyczą także wielu elementów na stronach, do których Google odsyła. Najlepiej, aby strony te były:

  • godne zaufania (EAT),
  • szybkie (CWV),
  • stabilne w użytkowaniu (CWV),
  • bezpieczne (SSL),
  • komplementarnym źródłem wiedzy 
  • (Topical Authority),
  • łatwe w obsłudze (Google Playbooks – wytyczne UX od Google).

Można wysnuć wniosek, że Google czuje się odpowiedzialny za serwisy i treści, które wskaże swoim użytkownikom. Z roku na rok przybywa tego typu wytycznych i zyskują one coraz bardziej na znaczeniu.
 

Rys. 2. Źródło: interaktywnie.com


Jak zmieniają się wyniki wyszukiwania?

W roku 2021 pojawiły się kolejne zmiany w wyglądzie strony wyników wyszukiwania Google. Bez wątpienia wpływają one na sposób, w jaki korzystamy lub będziemy korzystać z wyszukiwarki w najbliższym czasie. Rich Snippets oraz Featured Snippets zajmują obecnie więcej miejsca na stronie organicznych wyników wyszukiwania. To dzięki nim użytkownik ma możliwość np. odczytania śródtytułów właściwego tekstu już na etapie przeglądania wyników wyszukiwania. Dzięki temu może utwierdzić się w przekonaniu, że to właśnie na tej stronie znajdzie najlepsze informacje – nawet wtedy, gdy jej adres URL nie znajduje się na pierwszej pozycji. 
Jest to jednak broń obosieczna: istnieje bowiem spore ryzyko, że użytkownik już na etapie wyników wyszukiwania otrzyma informację, której szukał. Nie będziemy mieli wtedy możliwości zachęcenia go do wyświetlenia naszej strony, nawet jeżeli jest to jedyna konwersja. Prowadzi to także do niezdrowej rywalizacji między samą wyszukiwarką a stronami, do których ma ona kierować.
O ile na Featured Snippets nie mamy bezpośredniego wpływu i Google wybiera je sam, o tyle wyświetlenie Rich Snippets uzyskujemy poprzez właściwe okodowanie treści znajdujących się na stronie. W tej sytuacji decydujemy się na to, aby Google wyróżnił nas w swoich wynikach, nawet jeżeli może to skutkować spadkiem ruchu na określonych frazach. Wszystko wskazuje jednak, że rozszerzone wyniki wyszukiwania będą przybierać na sile z każdym kolejnym rokiem.
Dla przykładu, jeszcze w 2018 r. wyniki wyszukiwania dla zapytania „co to jest Google?” wyglądały jak na rysunku 3.
 

Rys. 3. Źródło: Google.com


Obecnie, wpisując do wyszukiwarki to samo zapytanie, otrzymamy wyniki wzbogacone o:

  • dane uporządkowane FAQ (rys. 4),
     
    Rys. 4. Źródło: Google.com
  • Featured Snippet o nazwie People also ask (rys. 5).

     
    Rys. 5. Źródło: Google.com

Skalę zmian zauważymy jednak dopiero po wpisaniu frazy typu „makijaż ślubny łódź”. Otrzymany wtedy rezultat wzbogacony jest o (rys. 6):

  • direct answear;
  • przykładowe zdjęcia wykonanych makijaży;
  • płatną reklamę profesjonalnych usług;
  • mapkę Google, wskazującą, gdzie znajdują się firmy oferujące makijaż w okolicy wskazanej lokalizacji;
  • linki do alternatywnych stron oferujących wyniki wyszukiwania dla wpisanej przez nas frazy;
  • dwie strony, które trafiły tutaj jako organiczne wyniki wyszukiwania.
     
Rys. 6. Źródło: Google.com


Jak wykorzystać Big Data w SEO?

W ostatnich latach świat SEO zalewany jest danymi dotyczącymi stron internetowych. Przed crawlerami nie ukryje się nic. Jesteśmy w stanie podchodzić do witryn precyzyjnie jak nigdy wcześniej, dzięki samodzielnemu pobieraniu i analizowaniu danych z wielu różnych narzędzi.
Dobrym przykładem może być wstępna analiza mająca na celu wyznaczenie konkurencji dla tworzonego sklepu internetowego. W pierwszym etapie sprawdzamy, kto jest liderem w wybranej przez nas kategorii słów kluczowych (rys. 7).
 


Załóżmy, że potrzebujemy wybrać system zarządzania treścią dla naszego sklepu. Po wstępnej analizie zdecydowaliśmy, że nasze wymagania spełniają tylko dwa gotowe rozwiązania: PrestaShop oraz Magento. Do wcześniej ustawionego filtra dodajemy filtr z wyróżnieniem wspomnianych systemów CMS (rys. 8). 
Na podstawie otrzymanej tabeli widać, że w pierwszej dziesiątce sklepów z największą widocznością, wykorzystujących wskazane przez nas systemy zarządzania treścią w kategorii Styl i moda, aż 7 z 10 e-commerce’ów wykorzystuje CMS Magento. Oczywiście nie przesądza to w żaden sposób o wyborze tego CMS, ale jeśli dotąd skłanialiśmy się ku oprogramowaniu PrestaShop, to definitywnie powinniśmy ponownie zweryfikować możliwości Magento.
 


Naturalnym krokiem wydaje się również kompleksowa kontrola tego, co znajduje się na naszej stronie. Rosnąca liczba parametrów, którymi możemy opisać przykładowo wpisy blogowe, pozwala analizować je bardzo szczegółowo, niezależnie od tego, czy na naszym blogu posiadamy 30 czy 3000 podstron. Data Science ułatwia także wybór portali do nawiązywania kampanii linkowych z tymi partnerami, których domeny posiadają odpowiednie parametry:

  • profilu linkowego,
  • ruchu,
  • widoczności,
  • treści osadzonych we właściwej tematyce itp.

Dzięki danym i ich analizie nie jest już wyzwaniem utworzenie rozległej, wielokrotnie zagnieżdżonej struktury kategorii sklepu internetowego i jej kontrolowanie. Podobnie jest z kierowaniem linkowaniem wewnętrznym opartym na potencjałach poszczególnych klastrów tematycznych (tematów lub nawet adresów URL) tak, aby najlepiej rozlokować wewnętrzny PageRank na stronie zgodnie z naszymi założeniami. Wisienką na torcie jest dobieranie anchorów w dowolnej formie i odmianie dzięki modelowi NLP.
Zastosowanie big data w SEO nie jest niczym nowym, ale z pewnością będzie przybierało na sile w najbliższych latach, choćby ze względu na kolejne narzędzia oferujące jeszcze większą ilość danych. 

AI, ML, NLP…

W najbliższym czasie coraz bardziej popularne w branży SEO będą stawały się hasła takie jak machine learning (MI), artificial intelligence (AI), natural language processing (NLP). Dzięki zrozumieniu podstaw zasad ich działania możemy lepiej pojąć zmiany zachodzące w...

Pozostałe 70% treści dostępne jest tylko dla Prenumeratorów

Co zyskasz, kupując prenumeratę?
  • 6 drukowanych wydań magazynu Online Marketing
  • Dodatkowe artykuły niepublikowane w formie papierowej
  • Dostęp do czasopisma w wersji online
  • Dostęp do wszystkich archiwalnych wydań magazynu oraz dodatków specjalnych
  • ... i wiele więcej!
Sprawdź szczegóły

Przypisy