On-site SEO, czyli co?
On-site SEO, zwane także on-page SEO, to proces optymalizacji pod kątem wyszukiwarki (najczęściej Google) elementów znajdujących się na stronie internetowej. Określenie to może wydawać się pleonazmem, ale tak nie jest, gdyż w SEO wyróżniamy także czynniki poza stroną, czyli off-site SEO – z tzw. backlinkami (linkami prowadzącymi z innych stron internetowych) na czele.
Do on-site SEO można zaliczyć szereg czynników, które można podzielić w następujący sposób:
POLECAMY
- technical SEO – warstwa czysto technologiczna, czyli m.in. infrastruktura serwerowa, struktura adresów URL, dostępność strony dla robotów wyszukiwarek, elementy kodu wpływające na renderowanie i indeksację, wydajność ładowania zasobów, bezpieczeństwo;
- architektura informacji – inaczej struktura serwisu, stopień rozdrobnienia na podstrony i połączenia między nimi;
- content – treść poszczególnych podstron – zarówno tekstowa, jak i multimedialna.
Widać zatem, że on-page SEO zahacza w naturalny sposób o takie obszary, jak webdevelopment, UX i content marketing. Jak w tych obszarach można wykorzystać AI? Zaraz dowiesz się, jak wykorzystać AI w poszczególnych obszarach SEO, ale najpierw warto przyjrzeć się, co faktycznie kryje się za pojęciem sztucznej inteligencji, z której możesz skorzystać.
Jak pracować ze sztuczną inteligencją?
Nie ma w tej chwili sensu, aby zagłębiać się szczegółowo w definicje AI, jednak chciałbym zaznaczyć jedną kluczową kwestię – obecnie mamy do czynienia z tzw. słabą sztuczną inteligencją. Nie jest to w każdym razie żadna wszechwiedząca istota. Odmian technologii, jakie utożsamiamy z SI, jest wiele i każda z nich ma inne, zwykle dość wąskie zastosowania. Na przykład, popularny ChatGPT jest odpowiednio wytrenowanym do konwersacji dużym modelem językowym (LLM, large language model).
LLM to rodzaj generatywnej (czyli zdolnej do kreacji nowych danych) sztucznej inteligencji oparty na uczeniu maszynowym i sieciach neuronowych, który trenuje się tak, aby jak najskuteczniej przetwarzał język ludzki. Tworzone przez LLM treści opierają się w dużej mierze na ocenie prawdopodobieństwa pojawienia się określonych słów po sobie. Działa na podstawie modeli statystycznych oraz analizy ogromnych ilości treści. Na przykład, stosunkowo jeszcze prymitywny GPT-3 został wytrenowany na podstawie 570 GB tekstu (https://hai.stanford.edu/news/how-large-language-models-will-transform-science-society-and-ai). Wpisując zapytania (tzw. prompty) do ChatGPT, de facto określamy kontekst, w którym model ma się wypowiedzieć. Ogromna liczba przetworzonych danych pozwala modelowi porozumiewać się niemal tak, jak człowiek.
Pracując ze sztuczną inteligencją (np. tworząc własne rozwiązania na bazie API do poszczególnych modeli GPT), można na nią wpływać nie tylko samym promptem, ale także ustawieniami temperatury (parametr losowości), samplingu (puli, z jakiej model dobiera najbardziej prawdopodobne słowo), częstotliwości, presence penalty (skłonności do nieporuszania zagadnień już użytych w odpowiedzi), frequence penalty (parametru regulującego skłonność modelu od używania często występujących słów). Świadomie operując tymi zmiennymi, można wpływać na typ i jakość treści ge...
- 6 drukowanych wydań magazynu Online Marketing
- Dodatkowe artykuły niepublikowane w formie papierowej
- Dostęp do czasopisma w wersji online
- Dostęp do wszystkich archiwalnych wydań magazynu oraz dodatków specjalnych
- ... i wiele więcej!