Dołącz do czytelników
Brak wyników

SEM/SEO

6 września 2022

NR 65 (Sierpień 2022)

Audyt e-commerce pod kątem SEO – 7 punktów

0 92

Produkt. Grupa docelowa. Strona www. Hosting. Płatności. No właśnie, tworząc sklep internetowy, powinniśmy pamiętać o naprawdę wielu istotnych jego częściach składowych oraz wszystkim, co doprowadza do tego, że taki sklep sprzedaje. Poznając lepiej branżę e-commerce, możemy natknąć się w wielu źródłach internetowych na różnego rodzaju checklisty, które mają pomóc nam w stopniowym odhaczaniu kolejnych kroków milowych, spraw do załatwienia czy w budowie kolejnych etapów ścieżki konwersji.

W poniższym tekście skupimy się jednak na tym, co stanowi prawdziwy fundament pracy nad sprawnie działającym sklepem internetowym i jego widocznością w wyszukiwarkach, takich jak Google. Przedstawiam 7 punktów, które składają się na audyt serwisu e-commerce pod kątem SEO. Oczywiście w zależności od osoby odpowiedzialnej za jego wykonanie, liczba punktów oraz ich interpretacja mogą być zupełnie inne.

POLECAMY

Czym jest audyt SEO i co powinno się w nim zawierać?

Audyt SEO to dokument, który stanowi zbiór analiz wielu czynników wpływających bezpośrednio i pośrednio na pozycje naszej strony, w tym oczywiście sklepu internetowego. Często zawiera również zalecenia i wskazówki odnośnie do tego, jak warto rozwiązać istniejące problemy. Wykonuje go zazwyczaj specjalista SEO na początku wykonywania prac nad serwisem, przy migracji, przebudowie strony czy po prostu weryfikując kierunek, w jakim rozwija się sklep raz na określony czas. Wykorzystuje przy tym przede wszystkim swoją wiedzę, doświadczenie oraz narzędzia, które znacząco pomagają w procesie jego tworzenia. Crawlery, takie jak Screaming Frog, wtyczki do przeglądarki, Google Search Console, narzędzia do analizy logów to jedynie część oręża, z którego możemy skorzystać. Dokument ten zawiera często wiele pojęć, które mogą niewiele znaczyć dla osoby, która na co dzień nie zajmuje się optymalizacją czy pozycjonowaniem stron internetowych. Postaram się jednak opisać poniżej poszczególne części składowe audytu sklepu internetowego pod kątem SEO, używając maksymalnie prostego i przystępnego języka. Checklista może być wykorzystywana zarówno przez sklepy istniejące już lata, jak i dopiero wchodzące na rynek.

1. Analiza widoczności

Przystępując do prac nad serwisem, powinniśmy przede wszystkim zorientować się w jego obecnej sytuacji oraz prześledzić najważniejsze momenty w jego historii. Warto w tym momencie posłużyć się narzędziami, takimi jak Senuto, Semstorm czy Ahrefs. Pomogą one m.in. zapoznać się z wykresem widoczności strony na frazy kluczowe w danym czasie i zidentyfikować najważniejsze momenty jej spadków i wzrostów, związane często ze zmianami działania algorytmów wyszukiwarki lub zmianami wprowadzanymi na sklepie. Mówiąc o widoczności, myślimy często o wykresach liczby fraz kluczowych w top 3, top 10 czy top 50 wyników wyszukiwania.

 

 Rys. 1. Analiza widoczności TOP 10 fraz kluczowych serwisu Allegro.pl. Źródło: Senuto

 

W tym miejscu możemy również zidentyfikować strony, które mogą przynosić najwięcej lub najmniej ruchu z wyszukiwarki. Dzięki temu jesteśmy w stanie zebrać dane do stworzenia długofalowej strategii SEO. Oczywiście warto tutaj przeanalizować również widoczność bezpośredniej konkurencji.

2. Analiza ruchu i sprzedaży

Przy analizie ruchu organicznego w sklepie internetowym przydają się narzędzia, takie jak Google Search Console i Google Analytics. Dzięki nim specjalista SEO jest w stanie określić m.in. udział ruchu organicznego w sprzedaży, współczynnik odrzuceń danych stron kategorii czy produktów oraz zdobyć ogólny pogląd na wyświetlenia i kliknięcia w dane segmenty fraz kluczowych.

 

 Rys. 2. Wykres przedstawiający porównanie kliknięć i wyświetleń z ostatnich 6 miesięcy w zestawieniu rok do roku. Źródło: Google Search Console

 

3. Architektura informacji

W sklepie internetowym szalenie ważna jest struktura powiązań między poszczególnymi kategoriami, podkategoriami, produktami, stronami informacyjnymi czy artykułami blogowymi. Oceniając nawigację i architekturę nawigacji, powinniśmy przeanalizować:

  • menu główne, a więc główną taksonomię pod kątem jego dostępności dla robotów wyszukiwarek, rozmieszczenia i przyporządkowania kategorii i podkategorii;
  • menu boczne lub inne dodatkowe (jeśli istnieje);
  • poprawność wyświetlania menu dostępnego na urządzeniach mobilnych;
  • sposób, w jaki wykorzystujemy paginację (stronicowanie).

Powinniśmy również zidentyfikować na stronie:

  • strony „sieroty” (tzw. Orphan pages), czyli podstrony, do których nie prowadzą żadne linki wewnętrzne;
  • strony bez treści lub takie, które nie wnoszą dużej wartości w strategii pozycjonowania.

Nawigacja w kontekście SEO oznacza właściwe posługiwanie się tzw. anchor textami, czyli „kotwicami” dla linków wewnętrznych. Możemy je znaleźć w menu głównym (nazwy kategorii), w tekstach opublikowanych na stronie czy nazwach produktów w listingu kategorii. Dzięki użyciu odpowiednich fraz kluczowych i linkowaniu kontekstowemu, roboty wyszukiwarek będą w stanie lepiej zrozumieć zawartość sklepu internetowego i przyporządkować im dane słowa kluczowe.

 

Rys. 3. Fragment menu głównego w sklepie x-kom.pl. Źródło: x-kom.pl

 

Dzięki zastosowaniu intuicyjnego menu, odpowiednich rozwiązań nawigacyjnych, czy linkowania wewnętrznego w postaci np. sekcji z produktami polecanymi lub komplementarnymi, jesteśmy w stanie pokierować zarówno użytkownika, jak i roboty wyszukiwarek w odpowiednim kierunku oraz doprowadzić do wzrostu współczynnika konwersji.

4. Technical SEO

Technical SEO to pojęcie, które w branży SEO można interpretować w różny sposób, jednak elementy, które się na nie składają w znacznej większości zazwyczaj pokrywają się z tymi, które przedstawiłem poniżej. Przy ich analizie najbardziej przydają się narzędzia, m.in. takie jak Google Search Console, Screming Frog, Sitebulb, SF Log File Analyser.

Crawlowanie

Crawlowanie w kontekście SEO oznacza najczęściej ruch botów wyszukiwarek na stronie internetowej i pozyskiwanie informacji na jej temat. Specjalista SEO jest odpowiedzialny za to, aby przebiegało ono sprawnie, żeby boty nie natrafiały na różnego rodzaju przeszkody na swojej drodze. Dlaczego zarządzanie nim jest ważne? Z prostej przyczyny, Google ma ograniczone zasoby, które może przeznaczać każdego dnia na zwiedzanie internetu, pozyskiwanie i aktualizację informacji na jego temat. 

Na co więc powinniśmy tutaj zwracać uwagę?

  • Dostępność serwera, prędkość jego odpowiedzi czy wytrzymałość podczas pracy przy dużych natężeniach ruchu.
  • Obecność i poprawność instrukcji dostępnych w pliku robots.txt. Jest to szalenie istotny dokument tekstowy, który powinien być umieszczony w głównym katalogu domeny. Jego nieodpowiednie użycie może zablokować nawet całkowicie możliwość odwiedzania sklepu internetowego przez boty (nie tylko wyszukiwarek), co może skutkować spadkiem lub brakiem widoczności na frazy kluczowe.
  • Statystyki crawlowania dostępne w Google Search Console. Te raporty stanowią często punkt zaczepienia do bardziej zaawansowanych analiz i służą do tego, aby zorientować się, jak googlebot radzi sobie z crawlowaniem poszczególnych zasobów naszej strony w danym odstępie czasu.
  • Logi serwera. Są najbardziej rzetelnym źródłem informacji na temat ruchu botów na naszej stronie internetowej. Dzięki analizie logów znajdziemy większość popularnych błędów (np. nieprawidłowe przekierowania, błędy 404, czy niepotrzebnie odwiedzane zasoby) i będziemy w stanie lepiej zarządzać ruchem botów na stronie.
  • Odpowiednie zarządzanie mapą strony.
  • Odpowiednie linkowanie wewnętrzne.
  • Eliminacja lub ograniczanie przekierowań wewnętrznych wydłużających ścieżkę crawlowania.
  • Blokowanie lub ograniczanie dostępu botów do wyników wyszukiwarki wewnętrznej.
  • Eliminacja błędów 404.
  • Unikanie stosowania różnej zawartości strony (linków wewnętrznych) dla różnych rozdzielczości ekranów (głównie desktop vs mobile).

Analiza i monitorowanie procesu crawlowania pozwala na odpowiednie zarządzania nim, a więc optymalizację tzw. crawl budgetu (w uproszczeniu jest to liczba podstron w danym serwisie, które googlebot może odwiedzić w danym odstępie czasu). Dzięki temu Google będzie w stanie częściej i szybciej aktualizować informacje na temat naszej strony w swoim indeksie, a w konsekwencji (przy zastosowaniu innych, równie ważnych czynników) wyświetlać stronę w wynikach wyszukiwania na odpowiednie frazy kluczowe na wysokich pozycjach.

Indeksacja

Bez odpowiedniego zarządzania crawlowaniem nie ma sprawnego indeksowania. Bez ułatwiania ruchu botom nie będzie możliwe indeksowanie poszczególnych zasobów, a więc tworzenie kolejnych wolumenów danych w wielkiej bibliotece Google. Jednak oczywiście to nie wszystko. 

Wprowadzając zmiany w kodzie źródłowym strony internetowej, możemy wskazywać, które podstrony Google powinien umieszczać w swoim indeksie i w konsekwencji pokazywać użytkownikom swojej wyszukiwarki, a których stanowczo nie powinien. 

Ważna więc będzie tutaj m.in.:

  • Identyfikacja błędów, wpływających na poprawność indeksacji.
  • Weryfikacja indeksacji całej zawartości poszczególnych stron (teksty na podstronie, lista produktów na odsłonie kategorii).
  • Analiza pozornych błędów 404.
  • Weryfikacja poprawności stosowania linków kanonicznych.
  • Unikanie duplikacji wewnętrznej (np. poprzez obecność pojedynczego produktu pod kilkoma adresami URL).
  • Stosowanie linków typu „hreflang” służących do wskazywania odpowiednich podstron w różnych wersjach językowych. Istotne, jeśli nasz sklep sprzedaje n...

Pozostałe 70% treści dostępne jest tylko dla Prenumeratorów

Co zyskasz, kupując prenumeratę?
  • 6 drukowanych wydań magazynu Online Marketing
  • Dodatkowe artykuły niepublikowane w formie papierowej
  • Dostęp do czasopisma w wersji online
  • Dostęp do wszystkich archiwalnych wydań magazynu oraz dodatków specjalnych
  • ... i wiele więcej!
Sprawdź szczegóły

Przypisy