Dołącz do czytelników
Brak wyników

Reklama internetowa

20 marca 2019

NR 43 (Grudzień 2018)

Spadki w wynikach wyszukiwania – 6 możliwych powodów

0 147

Na pozycję serwisu w wynikach wyszukiwania wpływa wiele czynników. Nigdy nie można być pewnym, czy zajmowane przez frazy miejsca zostaną utrzymane przez dłuższy okres. Przedstawiam zatem sześć potencjalnych elementów, które warto przeanalizować w momencie, gdy zaobserwuje się spadki pozycji fraz kluczowych w Google.

Zmiany w budowie serwisu

Witryna w trakcie swojego istnienia w internecie może być wielokrotnie zmieniana i przebudowywana, dlatego trudno uniknąć pojawiających się po drodze błędów i nieprawidłowości w jej działaniu. Czynnikami tych problemów mogą być:

  1. Zmiany w linkowaniu wewnętrznym i nazewnictwie adresów URL – należy dbać o poprawność adresów URL występujących w kodzie danych podstron. Dotyczy to linków umieszczonych w tekstach artykułów blogowych (czy kierują na odpowiednie podstrony), w menu głównym, sidebarze czy stopce, linków kanonicznych lub też określających wersję językową. Chodzi o to, by sprawdzić, czy badana podstrona rankująca wcześniej na dane frazy kluczowe nie straciła „mocy” i odpowiedniej „rangi” na tle reszty serwisu (robot będzie rzadziej na nią zaglądał) oraz czy dane linki nie kierują robota na strony błędu 404. Zdarza się, że zmieniamy URL i zapominamy, o podmianie linków do niego prowadzących lub zastosowaniu przekierowania 301 ze starego adresu na nowy.
  2. Implementacja linków kanonicznych – zdarza się, że dane podstrony wypadają z indeksu Google na dłuższy czas. Jedną z przyczyn może być nieprawidłowa implementacja linków kanonicznych. Atrybut rel=”canonical” używany w odniesieniu do innej podstrony wskazuje na to, że jest ona unikalna i zawiera taką samą treść jak ta, na której umieszczona została ta informacja. Robot Google może wówczas uznać, że ta powielona nie powinna być przez niego indeksowana. Dobrą praktyką jest, aby na podstronach z unikalną treścią były umieszczane tzw. self-canonicale, czyli linki wskazujące same na siebie i informujące o swojej unikalności. Może się zdarzyć, że linki kanoniczne prowadzą do strony głównej lub innych podstron, które nie wiążą się ze stroną wyjściową. Jest to błąd, który należy jak najszybciej naprawić.
  3. Wprowadzenie certyfikatu SSL (HTTPS) – przejście z wersji http na https niesie ze sobą pewne zagrożenia. Przy implementacji certyfikatu SSL dla witryny należy pamiętać o kilku istotnych krokach:
  • sprawdzenie poprawności wdrożenia certyfikatu - kłódka powinna wyglądać jak poniżej (Google Chrome) 
  • zadbanie o przekierowania między http i https,
  • zaktualizowanie wszystkich linków wewnętrznych,
  • zaktualizowanie linków przychodzących (o ile to możliwe),
  • zaktualizowanie mapy strony i wersji Google Search Console.


Jeśli zamiast kłódki obok „https” występuje wykrzyknik w kółku (Google Chorme) lub kłódka z żółtym wykrzyknikiem (Firefox)  oznacza to, że niektóre zasoby (np. grafiki) nie są wczytywane z zastosowaniem bezpiecznego połączenia HTTPS.
 


Poprawność wdrożenia HTTPS determinuje brak problemów w indeksacji oraz sprawne przejęcie „mocy SEO” przez nowe adresy URL.

  1. Zmiana nazw kategorii, produktów lub innego rodzaju podstron – za każdą zmianą nazwy danej kategorii, np. „Bluzki z kolorowymi kwiatami” na „Bluzki w kwiaty” powinna iść zmiana adresu URL oraz przekierowanie starego URL na nowy, zmiana tagu title, nagłówków H1–H6 oraz pozostałych treści dostępnych na danej podstronie.
  2. Przy zmianie domeny na nową (przy wykonaniu odpowiednich przekierowań) spadki w pozycjach są nieuniknione, ponieważ Google potrzebuje czasu, żeby przeindeksować całą zawartość serwisu. Jeśli pozycje nie będą stale rosnąć i wracać na swoje miejsca warto wówczas wyciągnąć wnioski oraz sprawdzić, czy nie został popełniony jakiś błąd na drodze zmiany domeny.

Kwestie techniczne

Na stronie jest wiele elementów, które mogą być wadliwe z technicznego punktu widzenia. Dobry i sprawdzony hosting pomoże m.in. w uniknięciu generowania błędów typu 500 oraz poprawi szybkość ładowania się strony. Warto zauważyć, że jeśli robot musi spędzić zbyt wiele czasu, odpytując serwer, może zrezygnować z próby indeksacji danej części podstron. Natomiast użytkownik, który będzie zbyt długo czekał na załadowanie się podstrony, zrezygnuje z jej dalszego przeglądania, co z kolei może zwiększyć współczynnik odrzuceń. Co istotne, jeśli szybkość ładowania, dostępność treści oraz wskaźnik CTR są niskie – Google może wziąć to pod uwagę, a pozycje witryny mogą spaść.

Kwestie techniczne to:
1. Problemy z serwerem – przyrost błędów 5XX możemy sprawdzić m.in. w Google Search Console. W starej wersji GSC należy użyć ścieżki: Skanowanie -> Błędy indeksowana -> Błąd serwera.

 

W nowej wersji narzędzia opcję tę znajdziemy w sekcji Stan -> Błędy (szczegóły).

 



2. JavaScript – kod stworzony za pomocą tego języka lub jego frameworków może być zaimplementowany niepoprawnie bądź w nieodpowiedni sposób. Jeśli dany kod nie jest wymagany do poprawnego odczytu treści na danej podstronie, najlepiej aby był renderowany asynchronicznie. Istotne jest również, aby plików z tym kodem nie było łącznie zbyt wiele. Jeśli można zauważyć niepokojące zmiany, warto prześledzić historię instalacji wtyczek do CMS-a, tworzenia animacji na stronę, nowych funkcjonalności, wprowadzania narzędzi do marketing automation oraz innych elementów, które mogą wpływać na zachowanie strony. 

Zapamiętaj

Dla robotów Google kod JavaScript jest trudniejszy do zrenderowania i wymaga więcej pamięci obliczeniowej niż zwykły HTML, dlatego jeśli jest to możliwe, należy stale usprawniać ten element. Należy również unikać umieszczania istotnych z punktu widzenia SEO treści w JS. Mogą one nie zostać tak szybko zaindeksowane jak kod HTML.


3. Szybkość ładowania witryny – bardzo ważny element w kontekście wersji desktopowej oraz mobilnej strony. Zarówno robot, jak i użytkownik, powinien sprawnie poruszać się po kolejnych podstronach i nie mieć problemów z wczytaniem najważniejszych jej elementów. Należy pamiętać o stałym badaniu prędkości działania, ponieważ wraz z kolejnymi aktualizacjami Google kładzie coraz większy nacisk na ten element. Więcej o tym, jak przyspieszyć swoją stronę: //semahead.pl/blog/9-sprawdzonych-sposobow-poprawe-szybkosci-ladowania-strony.html
4. Błędy 404 – mogą, ale nie do końca muszą wpływać na pozycje fraz. Dotyczy to zwłaszcza branży e-commerce, gdzie dochodzi do zmian w asortymencie sklepu. Co bardzo istotne, z każdym usunięciem danego produktu, kategorii lub innej części serwisu należy znaleźć podstrony, które odpowiadają tematycznie tym usuwanym i zastosować między nimi przekierowanie 301. Jeśli taki zabieg nie zostanie wykonany, oprócz pozycji strona może stracić również ruch. Jeśli użytkownik trafi na stronę błędu 404 lub całkowicie niezwiązaną podstronę z tym, czego szuka (np. stronę główną zamiast produktu), wówczas prawdopodobnie opuści witrynę. Roboty indeksujące również powinny otrzymywać wartościowe podstrony zwracające kod 200, aby indeksacja przebiegała sprawnie, a już zaindeksowane strony zyskiwały swoich następców.
5. Przekierowania 3XX – jeśli w serwisie zachodzą częste zmiany w adresacji URL, może dochodzić do zwiększenia liczby zbędnych przekierowań. Obciążają one crawl budget robotów indeksujących i w konsekwencji mogą rezygnować z crawlowania podstron, do których dotarcie nie jest tak łatwe, jak być powinno. Jeśli z podstro...

Pozostałe 70% treści dostępne jest tylko dla Prenumeratorów.

Masz już prenumeratę? Zaloguj się, aby przeczytać artykuł.
Zaloguj się
Nie masz jeszcze prenumeraty? Nic straconego! Dołącz do grona stałych Czytelników już dziś i miej pewność, że żadne treści już Cię nie ominą.
Co zyskasz, kupując prenumeratę?
  • 6 drukowanych wydań magazynu Online Marketing
  • Dodatkowe artykuły niepublikowane w formie papierowej
  • Dostęp do czasopisma w wersji online
  • Dostęp do wszystkich archiwalnych wydań magazynu oraz dodatków specjalnych
  • ... i wiele więcej!
Sprawdź szczegóły

Przypisy