semhub - pozycjonowanie stron internetowych

Pozycjonowanie stron internetowych - Jak działają wyszukiwarki tj Google czyli: Crawlowanie, Indeksowanie i Pozycje

Zacznij od... pokazania się w wynikach wyszukiwania!

Jak wspomniałem w pierwszym artykule, wyszukiwarki są maszynami odpowiadającymi na ludzkie zapytania. Zostały stworzone i istnieją po to aby odkrywać, rozumieć i organizować zawartość internetu tak aby proponować najbardziej odpowiednią odpowiedź na pytanie szukającego.

Aby Twój artykuł lub cała strona internetowa mogła pokazać się w wynikach wyszukiwania np. w Google, musi mieć w ogóle możliwość zostać odnalezioną i zauważoną przez roboty wyszukiwarek. Prawdopodobnie jest to pierwszy i kluczowy kawałek układanki SEO: Jeżeli Twoja strona nie może być zauważona/znaleziona przez roboty wyszukiwarek to w ogóle nie ma możliwości, że kiedykolwiek pokażesz się w SERP’ach (SERP z ang. = wyniki wyszukiwania).

Jak działają wyszukiwarki internetowe tj. Google?

Wyszukiwarki mają trzy zasadnicze funkcje:

  1. Crawlowanie: przeszukiwanie internetu w celu znalezienia stron i treści, następnie przeszukiwanie kodu źródłowego znalezionych stron.
  2. Indeksowanie: Przetrzymywanie, organizowanie i wyświetlanie w wyszukiwarce znalezionych stron i contentu w trakcie crawlowania. Dlatego jeżeli strona jest w indeksie oznacza, że można ją znaleźć w wynikach wyszukiwania.
  3. Ocenianie: Aby przedstawić użytkownikowi jak najlepiej dopasowaną odpowiedź do jego zapytania, robot musi wcześniej sprawdzić wszystkie możliwe odpowiedzi i wybrać czyli zwaluować najlepsze.

Czym jest Crawlowanie przez roboty

Crawlowanie czyli inaczej przeszukiwanie jest procesem odkrywczym, w trakcie którego wyszukiwarki wysyłają zespół robotów (znanych jako spiders = pająki albo crawlers=poszukiwacze) w celu znalezienie nowej lub zaktualizowanej treści. Treść to szerokie pojęcie. Może to być strona internetowa, obraz, filmik bądź dokument PDF itp.

crawlowanie internetu

Googlebot (robot od Google) zaczyna od pobrania/znalezienia kilku stron, następnie podąża za wszystkimi URL’ami (linkami) odsyłającymi z tej strony aby znaleźć nowe URL’e. Poprzez podążanie za siecią znalezionych URL’i. Robot crawlujacy jest w stanie znaleźć nową i dotąd nieodkrytą treść a następnie dodać ją do swojego indeksu nazywanego Caffeine, - który jest OGROMNYM zbiorem znalezionych dotychczas URL’i - aby następnie dopasować jak najbardziej trafną odpowiedź do zapytania szukającego spośród wszystkich stron w indeksie Caffeine.

Czym jest index wyszukiwarek

Wyszukiwarki przetwarzają a następnie przechowują znalezione informacje w swoim indeksie, ogromnej bazie danych wszystkich dotychczas odkrytych treści, które uznają za wystarczająco dobre, by służyć szukającym czyli nam - ludziom.

Ranking wyszukiwarek

Gdy użytkownik wpisuje swoje zapytanie w wyszukiwarkę (np. Google), ona przeszukuje swój index w poszukiwaniu jak najbardziej trafnej odpowiedzi a następnie pokazuje je w kolejności z nadzieją że pokazane wyniki udzielą odpowiedzi na pytanie szukającego - czyli w rzeczywistości rozwiążą jego problem. To sortowanie wyników wyszukiwań przez dopasowanie do pytania szukającego jest znane jako pozycjonowanie/rankowanie. W zasadzie, można przyjąć że im wyżej strona pokazuje się w wynikach wyszukiwania tym bardziej trafna jest odpowiedź na pytanie szukającego.

Możliwym jest zablokowanie robotów wyszukiwarek z części bądź z całej strony internetowej, bądź poinstruowanie ich aby nie przechowywały części podstron w swoim indeksie. Może być powód wykonania takiego zabiegu jednak jeśli chcesz aby Twoja strona internetowa oraz treści mogły zostać znalezione przez roboty wyszukiwarek musisz mieć pewność, że Twoja witryna jest dla niech dostępna i indeksowalna. W innym wypadku będzie niewidoczna.


w pozycjonowaniu i optymalizacji (SEO), nie wszystkie wyszukiwarki są takie same!

Wielu początkujących myśli, że wszystkie wyszukiwarki są podobne. Większość ludzi jednak wie, że Google ma największy udział w rynku, jednak jak ważna jest optymalizacja pod kątem Binga, Yahoo i innych wyszukiwarek? Prawdą jest że, pomimo istnienia ponad 30 dużych wyszukiwarek, społeczność pozycjonowania stron internetowych (SEO) zwraca uwagę wyłącznie na Google. Dlaczego? Krótko mówiąc Google jest wyszukiwarką, z której korzysta większość ludzi. Jeżeli do całości dodamy Google Maps, Youtube, Obrazki (własności Google), to ponad 90% zapytań internetowych dzieje się za pośrednictwem Google - to niemal 20 razy więcej niż Bing i Yahoo razem wzięte.


Crawlowanie: Czy roboty wyszukiwarek mogą znaleźć Twoją stronę?

Jak już wiesz - ponieważ się tego nauczyłeś - żeby mieć pewność, że Twoja strona może zostać poprawnie scrawlowana (przeszukana) i zaindeksowana przez roboty jest pierwszym warunkiem konieczny aby móc pojawić się w SERP’ach (wynikach wyszukiwania). Jeżeli posiadasz już stronę www, dobrym pomysłem jest abyś zaczął od sprawdzenia jak wiele Twoich podstron znajduje się w indeksie. Zapewni to Tobie świetny podgląd tego, czy Google znajduje i poprawnie index’uje wszystkie strony, które chcesz i żadnych - których nie chcesz.

Pierwszym sposobem aby to sprawdzić jest wpisanie “site:TwojaDomena.pl” w Google jako operator wyszukiwania zaawansowanego.

index google

Liczba wyników w Google wyświetlana jako (xx results (xxx seconds)) nie jest w 100% dokładna, jednak da Ci to podgląd tego jakie Twoje podstrony wyświetlają się w Google oraz tego jak się wyświetlają (meta tytuł i meta description).

Dla bardziej sprecyzowanych wyników, wykorzystaj “Indeks > Stan” w Google Search Console (GSC). Możesz założyć darmowe konto w Google Search Console, jeśli jeszcze nie posiadasz. Wykorzystując to narzędzie - które jest prosto od Google - możesz wrzucać sitemap’y (mapy strony), i obserwować jak wiele z przesłanych adresów URL zostało zaindeksowanych i znalezionych przez Google.

Jeżeli Twoja strona w ogóle nie wyświetla się w wynikach wyszukiwania, istnieje kilka możliwych powód przez, które może się tak dziać:

  • Twoja witryna jest nowa i nie została jeszcze zaindeksowana.
  • Twoja witryna nie jest powiązana z żadnymi zewnętrznymi witrynami.
  • Nawigacja witryny utrudnia robotowi skuteczne jej indeksowanie.
  • Twoja strona zawiera podstawowy kod zwany dyrektywami robota, który blokuje wyszukiwarki.
  • Twoja strona została ukarana przez Google za taktyki spamerskie.

Poinstruuj roboty wyszukiwarek jak mają crawlować Twoją stronę

Jeżeli użyłeś zaawansowane operatora wyszukiwania “site:twojadomena.pl” i zauważyłeś, że niektóre z ważnych podstron nie znajdują się w wynikach wyszukiwania Google lub niektóre z podstron, których nie chciałeś wyświetlać w Google jednak się tam pojawiły - powinieneś zastosować kilka z możliwości optymalizacyjnych aby lepiej kierunkować roboty Google (Googleboty) jak mają crawlować Twoją stronę.  Gdy to zrobisz pozwoli Ci to mieć lepszą kontrolę nad tym co finalnie znajdzie się w indeksie Google czyli w wynikach wyszukiwania.


Większość ludzi zdaje sobie sprawę z tego aby mieć na uwadze żeby Google mogło znaleźć ważne podstrony, jednak bardzo łatwo jest zapomnieć, że są również takie podstrony których nie chcesz pokazywać w wynikach wyszukiwania. Mogą to być podstrony ze starymi URL’ami, słabą treścią, zduplikowane URL’e (bardzo częsty przypadek w sklepach internetowych), strony testowe i wiele innych…

Aby zabronić robotowi Google dostępu do danych podstron wykorzystaj plik robots.txt

Robots.txt

Pliki robots.txt są zlokalizowane w głównym folderze strony (np. twojastrona.pl/robots.txt) i kierunkuje, roboty przeglądarek, które podstrony powinny być indexowane, a które nie.Możesz równieź sprecyzować prędkość crawlowania Twojej strony używając sprecyzowanych dyrektyw robots.txt

Jak Robot Google traktuje plik robots.txt

  • Jeśli Googlebot nie może znaleźć pliku robots.txt dla witryny, kontynuuje indeksowanie witryny.
  • Jeśli Googlebot znajdzie plik robots.txt dla witryny, zwykle postępuje zgodnie z sugestiami i kontynuuje indeksowanie witryny.
  • Jeśli Googlebot napotka błąd podczas próby uzyskania dostępu do pliku robots.txt witryny i nie może ustalić, czy istnieje, czy nie, witryna nie będzie indeksować witryny.

Optymalizuj pod kątem budżetu crawlowania (crawl budget)

Crawl budżet jest średnią liczbą URL’i, które robot google scrawluje na Twojej stronie zanim ją opuści. Optymalizacja crawl budżetu sprawia, że robot google nie traci czasu na crawlowanie Twoich mało istotnych podstron biorąc pod uwagę, że może jest zignorować pomimo wykorzystania crawl budgetu. Crawl budżetu jest bardzo istotny na dużych stronach z setkami tysięcy lub nawet milionami adresów URL, dlatego dobrym pomysłem jest zablokowanie dostępu do podstron, na których Ci nie zależy. Pamiętaj jednak aby nie blokować dostępu crawlerom do podstron, na których wykorzystałaś inne dyrektywy tj linki kanoniczne (canonical) lub noindex. Jeżeli to zrobisz, robot Google nie będzie w stanie zastosować się do dyrektyw zastosowanych na tych podstronach.


Nie wszystkie roboty stosują się do pliku robots. Ludzie ze złymi intencjami (np. tacy co masowo pobierają adresy) budują programy, które nie przestrzegają zasad ustalonych w robots.txt. Niektórzy mogą użyć pliku robots aby zlokalizować gdzie umieściłeś swoje prywatne treści. Teoretycznie logicznie brzmi aby zablokować dostęp robotom z prywatnych podstron tj. strony logowania czy strony panelu administracyjnego tak aby nie pojawiały się publicznie w wynikach wyszukiwania jednak zablokowanie dostępu do nich w robots.txt oznacza, że ludzie ze złymi intencjami bardzo łatwo będą mogli je zlokalizować. Lepszym pomysłem jest wykorzystanie znacznika “noindex” na tych podstronach niż umieszczenie ich bezpośrednio w publicznie dostępnym pliku robots.txt.

Definiowanie parametrów URL w Google Search Console (GSC)

Pewne strony ( w głównej mierze sklepy internetowe e-commerce) tworzą wiele takich samych treści dostępnych pod wieloma adresami URL (zduplikowana treść) poprzez dodawanie pewnych parametrów do tych URL’i. Jeżeli kiedykolwiek robiłeś zakupy online, z pewnością zawężałeś swoje wyniki wyszukiwań wykorzystując filtry. Na przykład, szukałeś butów na allegro następnie zawężałęś wyniki do rozmiaru, koloru, czy kategorii. Za każdym razem gdy zawęzisz wyniki, URL trochę się zmienia:

https://allegro.pl/kategoria/obuwie-1469?string=buty&marka=Nike

https://allegro.pl/kategoria/meskie-sportowe-257929?string=buty&marka=Nike&rozmiar=42

https://allegro.pl/kategoria/meskie-sportowe-257929?string=buty&marka=Nike&rozmiar=42&bmatch=baseline-al-product-eyesa2-engag-dict43-fas-1-1-0326&kolor-podeszwy=czarny

Skąd Google wie, która wersję adresu URL ma przedstawić szukającym? Google robi całkiem dobrą robotę wybierając reprezentatywny URL, jednak możesz wykorzystać narzędzie “Parametry URL - URL parameters” w Google Search Console aby dać znać Google dokładnie jak ma traktować Twoje strony. Jeżeli użyjesz tej funkcji aby powiedzieć Google “nie crawluj URL z parametrem XXX” to dajesz mu znać, aby schował tą zawartość przed robotami Google, co może oznaczać usunięcie tych adresów z wyników wyszukiwań. Jest to rzecz, którą będziesz chciał osiągnąć, jeżeli Twoje adresu URL generują duplikaty, jednak nie jest to rozwiązanie idealne jeśli chcesz aby te adresy się indeksowały.

Czy roboty (crawlery) mogą znaleźć wszystkie ważne treści?

Teraz, gdy już znasz taktyki, które sprawiają, że roboty trzymają się z dala od stron, które są nieistotne lub mało ważne, nauczymy się na temat optymalizacji, która pomoże robotom Google znaleźć ważne treści na Twojej stronie internetowej.

Czasami wyszukiwarki będą w stanie znaleźć część treści i podstron na Twojej witryny poprzez crawlowanie jej, jednak inne strony bądź sekcje mogą być dla nich przyćmione lub niezrozumiałe. Dlatego bardzo ważnym jest aby mieć pewność, że wyszukiwarki są w stanie poprawnie scrawlować całą Twoją witrynę i odkryć wszystkie ważne podstrony, które chcesz aby zostały zaindeksowane. Nie tylko stronę główną.

Zadaj sobie pytanie: Czy robot google może przeskanować całą twoją stronę, a nie tylko kilka podstron?

Czy roboty (crawlery) mogą znaleźć wszystkie ważne treści

Czy Twoja treść jest ukryta za opcją logowania?

Jeżeli wymagasz od użytkowników aby się zalogowali, bądź odpowiedzieli na jakiekolwiek pytanie zanim zobaczą finalną (ważną) treść - to pamiętaj - że prawdopodobnie wyszukiwarki nie zobaczą zahasłowanej treści! Przecież robot crawlujący nie jest w stanie się zalogować aby zobaczyć treści.

Opierasz stronę na funkcji “szukaj”?

Roboty nie są w stanie używać funkcji szukaj. Część ludzi myśli, że jeśli umieszczą funkcję szukania na swojej stronie internetowej, to roboty crawlujące będą w stanie znaleźć wszystko, czego użytkownicy szukają na tej stronie.

Czy Twoja treść jest umieszczona w elementach “non-text”? (obrazy, video, GIF’y)

Elementy non-text czyli obrazy, filmy, gify itd nie powinny być używane w celu wyświetlania treści na stronie, którą chcesz umieścić w indeksie Google. Pomimo tego, że wyszukiwarki są coraz mądrzejsze i coraz to lepiej rozpoznają obrazki, to nie ma 100% gwarancji, że będą w stanie przeczytać i zrozumieć treść, którą umieścisz np. na obrazku. Zawsze najlepszy rozwiązaniem jest umieszczenie tekstu w czystym HTMLu.

Czy wyszukiwarki mogą podążać za linkami w nawigacji (menu) Twojej strony?

Tak jak crawler musi znaleźć Twoją stronę poprzez odnośniki na innych stronach, tak Ty musisz posiadać odpowiednie odnośniki nawigacyjne na stronie aby wskazać im drogę. Jeżeli masz stronę, którą chcesz wyświetlać w wynikach wyszukiwania Google i pozyskać na nią ruch jednak nie linkujesz do niej z żadnej swojej podstrony - jest ona niemal niewidoczna. Wiele ludzie popełnia błąd krytyczny podczas tworzeniu struktury nawigacyjnej w sposób ciężki lub niedostępny dla robotów crawlujących przez co sprawiają, że ich strona nie wyświetli się w wynikach wyszukiwania.

struktura nawigacyjna SEO

Najczęściej popełniane błędy, które sprawiają że roboty crawlujące nie mogą ich znaleźć:

  • Posiadanie innej struktury nawigacji na urządzeniach mobilnych i innej na urządzeniach dekstopowych.
  • Posiadanie jakiekolwiek innej nawigacji nie umieszczonej w znaczniku HTML, np. umieszczonej w JavaScripcie. Google coraz lepiej rozumie JavaScript, jednak wciąż nie jest to w 100% idealny proces. Aby mieć większą pewność, że Google znajdzie, zrozumie i zaindeksuje treść lepiej jest ją umieścić w znacznikach HTML.
  • Pokazanie innej nawigacji użytkownikom, a innej robotom crawlującym.
  • Pominięcie linkowania do strony głównej na stronie przy użyciu nawigacji. Pamiętajmy, że linki to wyznaczone ścieżki dla robotów crawlujących.

Między innymi z powyższych powodów ważnym jest aby Twoja strona miała czystą i przejrzystą strukturę nawigacji.

Czy posiadasz przejrzystą architekturę informacji?

Architektura informacji jest praktyką organizacji i oznaczania treści na stronie internetowej, która ma na celu poprawienie wydajności i łatwości wyszukiwania dla użytkowników. Najlepszą architekturą informacji jest logika i intuicja, oznacza to że użytkownicy Twojej witryny nie powinni głowić się nad znalezieniem na niej odpowiedzi - czyli tego czego szukają (artykułu czy produktu)

Czy wykorzystujesz mapę strony? (sitemapę)

Sitemapa (Mapa strony), jest dokładnie tym jak brzmi. Listą adresów URL Twojej strony internetowej, którą roboty crawlujące mogę przeglądać w celu odnalezienia i indeksacji treści na Twojej stronie www. Jedną z najłatwiejszych sposób aby mieć pewność, że Google znajdzie ważne dla Ciebie i Twoich użytkowników strony jest stworzenie mapy strony (sitemapy) zgodnej ze standardami Google, a następnie zgłoszenie jej wykorzystując Google Search Console. Oczywiście zgłoszenie mapy za pomocą narzędzia GSC nie jest zamiennikiem dla odpowiedniej struktury nawigacyjnej jednak pomaga robotom crawlujących podążać ścieżką wszystkich ważnych podstron.


Upewnij się że w sitemapie umieściłeś tylko adresy URL, które chcesz aby były indeksowane. Przykładowo nie dodawaj adresów URL jeżeli są one zablokowane przez robots.txt, mają dyrektywę noindex, sa zduplikowane bądź posiadają adres kanoniczny.


Jeśli Twoja strona nie posiada odnośników z innych stron internetowych (backlinków), wciąż może zostać szybko i sprawnie zaindeksowana gdy zostanie poprawnie zgłoszona w Google Search Console. Nie ma gwarancji, że Google umieści zgłoszone adresy w indexie, jednak… wciąż warto spróbować!

Czy roboty crawlujące dostają błąd zwrotny podczas próby wejścia na Twoje adresy URL?

Podczas procesu crawlowania adresów URL na Twojej stronie internetowej, robot crawlujący może dostać błędy zwrotne. Możesz wejść w Google Search Console, przegląd, “Błędy skanowania” aby znaleźć adresy URL, które potencjalnie mogą taki błąd dostawać - raport z GSC pokaże Ci błędy serwera (server errors) oraz błędy 404 (nie znaleziono). Logi serwera również wykażą Ci takie błędy. Są również skarbnicą innych informacji np. tj. częstotliwość indeksowania (wizyt robota Google na Twojej stronie www). Jednak dostęp do logów serwera to bardziej zaawansowane taktyki - nie będziemy tej kwestii omawiać w poradniku SEO dla początkujących.

Zanim cokolwiek zrobisz z informacjami na temat crawlowania, warto zrozumieć błędy serwera oraz błędy 404 (nie znaleziono).

Błędy 4xx: Gdy roboty crawlujące nie mogą wejść na treść przez błąd klienta

Błędy 4xx są błędami klienta (client errors), oznacza to, że żądany adres URL posiada złą składnię lub żądanie nie można zostać spełnione. Jednym z najczęstszych powodów występowania błędów 4xx, jest błąd 404 - nie znaleziono. Może on oznacza usuniętą stronę, zmianę adresy URL, złe przekierowanie itp. Gdy wyszukiwarka natrafi na błąd 404, nie może wejść na treść. Gdy użytkownik trafi na stronę 404 - może być sfrustrowany i opuścić Twoją stronę.

Błędy 5xx: Gdy robot crawlujący nie może wejść na stronę ze względu na błąd serwera

Błędy 5xx oznaczają, że serwer, na którym znajduje się docelowa strona internetowa, nie spełnił żądania użytkownika lub robota crawlującego. W raporcie crawlowania w GSC znajduje się dedykowana zakłada dla tego typu błędów. Zazwyczaj takie błędy występują gdy żądanie dla danego adresu URL wygasło (trwało zbyt długo), dlatego robot Google opuścił to żądanie. Przejrzyj dokumentację Google, aby dowiedzieć się więcej o rozwiązywaniu problemów z łącznością z serwerem.

Na szczęście istnieje sposób na poinformowanie wyszukiwarek i wyszukiwarek, że Twoja strona została przeniesiona - przekierowanie 301 (permanentne - trwałe).

przekierowanie 301

Powiedzmy, że przenosisz stronę z TWOJADOMENA.pl/bluzy-kobiece/ na TWOJADOMENA.pl/bluzy-dla-kobiet. Wyszukiwarki i użytkownicy potrzebują przejścia ze starego adresu URL na nowy. Przekierowanie 301 jest właśnie tym przejściem

Kiedy należy wdrożyć 301: When you don’t implement a 301:
Moc SEO Przekierowuje moc SEO ze starego adresu URL do nowego Bez przekierowanie 301 autorytet starego adresu URL nie jest przekazywany do nowego adresu URL.
Indeksowanie Pomaga Google, znaleźć i zaindeksować nową wersję strony. Istnienie błędów 404 na Twojej stronie nie wpływają bezpośrednio na wyniki organiczne jednak, gdy pozwolisz aby ludzie trafiali na strony 404 będzie to dla Ciebie utratą ruchu i pozycji.
UX Zapewnia, że użytkownicy znajdą to czego szukają. Pozwolenie użytkownikom na kliknięcie w nieaktualne adresy URL z błędem zamiast przekierowania do właściwej wersji może być dla nich bardzo frustrujące

Kod 301 oznacza, że strona została trwale przeniesiona do nowej lokalizacji, więc unikaj przekierowywania adresów URL na nie powiązane  tematycznie strony - adresy URL, na których treść starego adresu URL nie istnieje. Jeśli strona strona wyświetla się wysoko w Google dla danego zapytania, a ty wykonasz na niej przekierowanie 301 do adresu URL z inną treścią, jej pozycja może spaść w rankingu, ponieważ tytuł i treść, która spowodowała, że wysoko się wyświetlała - już nie istnieje. Przekierowanie 301 są potężne - Używaj ich odpowiedzialnie!

Masz również opcję wykorzystania przekierowania 302, jednak powinno być ono wykorzystane tylko podczas tymczasowych zmian oraz w przypadkach, w których przekazanie mocy strony (link juice) nie stanowi problemu. 302 są trochę jak objazd drogowy. Chwilowo wysysasz ruch przez określoną trasę, jednak nie permanentnie.


UWAŻAJ NA łańcuchy przekierowań! (redirect chains)

Może być trudnym dla robota Google aby trafić na daną stronę jeżeli zrobisz łańcuch przekierowań. Google radzi aby zminimalizować łańcuch do minimum. Jeżeli zrobisz przekierowanie z TWOJADOMENA.pl/link1 do TWOJADOMENA.pl/link2 a następnie do TWOJADOMENA.pl/link3, lepiej zredukować przekierowanie pomiędzy i przekierować bezpośrednio TWOJADOMENA.pl/link1 do TWOJADOMENA.pl/link3.

Gdy upewnisz się, że Twoja strona jest zoptymalizowana pod kątem możliwości indeksowania, kolejnym etapem jest… jej zaindeksowanie w Google!


Indexowanie: Jak wyszukiwarki interpretują i przechowują Twoją stronę?

Gdy upewnisz się, że Twoja strona może zostać, lub już została scrawlowana, następnym etapem jest upewnić się, że może zostać zaindeksowana. Zgadza się - tylko dlatego, że Twoja witryna może zostać wykryta i zaindeksowana przez wyszukiwarkę, niekoniecznie oznacza, że zostanie zaindeksowana i będzie przechowywana w indeksie Google. W poprzedniej sekcji poświęconej indeksowaniu omawialiśmy, w jaki sposób wyszukiwarki odkrywają i crawlują strony internetowe. Indeks jest miejscem, w którym przechowywane są odkryte strony. Gdy robot znajdzie stronę, wyszukiwarka renderuje ją tak jak przeglądarka. W ten sposób wyszukiwarka analizuje zawartość tej strony a wszystkie te informacje są przechowywane w indeksie.

Indeksowanie Google

Czytaj dalej, aby dowiedzieć się, jak działa indeksowanie i jak upewnić się, że Twoja witryna znajdzie się w bazie danych Google czyli - indexie

Czy mogę sprawdzić jak robot Google widzi moją stronę?

Tak, wersja strony z pamięci podręcznej cache przedstawi Ci podgląd jak robot Google widział Twoją stronę ostatni raz gdy ją odwiedził.

Google przeszukuje zapisuje w pamięci podręcznej cache strony w innym odstępie czasowym. Strony internetowe z dużym autorytetem i popularnością jak onet.pl będą znacznie częściej crawlowane w porównaniu do mniej znanych i mniej zaufanych stron i blogów.

Możesz zobaczyć wersję strony z pamięci przeglądarki cache poprzez rozwinięcie menu klikając strzałeczkę obok nazwy domeny, następnie klikając “cached”

cache strony

Możesz także wyświetlić tekstową wersję witryny, aby ustalić, czy ważna treść jest skutecznie crawlowana i indeksowana.

Czy strony są kiedykolwiek usuwanie z indeksu Google?

Tak! Oczywiście, że strony mogą zostać usunięte z indeksu. Jest kilka przyczyn, przez który adres URL może zostać usunięty z indexu:

  • URL zwraca błąd 404 (nie znaleziono), bądź błąd serwera (5xx) - takie zdarzenie może być przypadkowe( strona została przeniesiona bez zastosowania przekierowania permamentnego 301), lub celowo (strona została usunięte i zwraca błąd 404 w celu usunięcia jej z indexu).
  • Adres URL ma zastosowany tag “noindex” - Taki tag może zostać zastosowany przez właściciela strony w celu poinstruowania wyszukiwarki aby nie indexowały danego adresu URL
  • Adres URL został ręcznie ukarany za naruszenie wskazówek dla webmasterów w wyniku czego został usunięty z indexu Google.
  • Adres URL został zablokowane przez robotami crawlujący przy użyciu hasła (np strony logowania)

Jeśli uważasz, że Twoja strona, która była wcześniej w indeksie Google, już się w nim nie znajduje możesz użyć narzędzia do sprawdzania adresów URL, aby dowiedzieć się o stanie strony, lub użyć narzędzia Pobierz jako Google, które ma funkcję „Poproś o indeksowanie”, aby przesłać poszczególne adresy URL do indeksu. (Bonus: narzędzie „pobierz” w GSC ma również opcję „renderowania”, która pozwala sprawdzić, czy występują problemy z renderowaniem strony przez Google).

Powiedz wyszukiwarkom jak mają indeksować Twoja witrynę


Dyrektywy wpływają na indeksowanie, nie na crawlowanie

Googlebot musi zaindeksować Twoją stronę, aby zobaczyć jej meta-dyrektywy, więc jeśli próbujesz uniemożliwić robotom dostęp do niektórych stron, meta-dyrektywy nie są dobrym sposobem na to. Tagi robotów muszą być indeksowane/zauważone, aby były przestrzegane


Dyrektywy meta dla robotów

Mera dyrektywy (lub “meta tagi = znaczniki meta”) są instrukcjami, które możesz dać wyszukiwarką w zależności od tego, jak chcesz aby traktowali Twoją stronę internetową.

Możesz powiedzieć wyszukiwarom np “Nie indeksuj tej strony w wynikach wyszukiwań” lub “Nie przesyłaj mocy do żadnego linku na tej podstronie”. Te instrukcje są wykonywane przez Znaczniki Meta w znaczniku HTMl Twojej strony (najczęściej używane) lub przez X-Robots-Tag w nagłówku HTTP.Znaczniki meta dla robotów

Znaczniki meta dla robotów

Znacziki meta mogą zostać zaimplementowane w sekcji w HTML’u na Twojej stronie internetowej. Może wykluczyć wszystkie lub określone wyszukiwarki. Poniżej przedstawimy najczęściej stosowane meta-dyrektywy wraz z sytuacjami, w których można je zastosować.

index/noindex - informuje wyszukiwarki, czy strona powinna zostać przeszukana i zapisana w indeksie wyszukiwarek do pobrania. Jeśli zdecydujesz się użyć „noindex”, komunikujesz się z robotami indeksującymi, że chcesz wykluczyć stronę z wyników wyszukiwania. Domyślnie wyszukiwarki zakładają, że mogą indeksować wszystkie strony, więc użycie wartości „index” nie jest konieczne.

  • Kiedy można użyć: możesz oznaczyć stronę jako “noindex” gdy chcesz aby strony z bezwartościowych contentem nie był indeksowane przez wyszukiwarkę lecz chcesz aby użytkownicy mogli na nie wejść np: strony profilowe

follow/nofollow - dają znak wyszukiwarkom czy roboty mają podążać “follow” czy nie mają podążać “ofollow” za linkami na tej stronie przekazując moc domeny (“link equity”) dalej przez te adresy URL. Jeżeli wybierzesz “nofollow”, roboty Google nie będą podążać dalej za linkami na danej podstronie ani nie będą przekazywać przez nie mocy domeny. Domyślnie wszystkie strony posiadają atrybut “follow”.

  • Kiedy można użyć: nofollow jest często używany razem z noindex, gdy próbujesz zapobiec indeksowaniu strony, a także uniemożliwić robotowi podążanie za linkami na stronie.

noarchive służy do ograniczenia przez wyszukiwarki zapisywania kopii strony w pamięci podręcznej. Domyślnie wyszukiwarki zachowają widoczne kopie wszystkich stron, które zaindeksowały, dostępne dla wyszukiwarek poprzez link z pamięci podręcznej w wynikach wyszukiwania.

Kiedy można użyć: Jeśli prowadzisz sklep e-commerce, a Twoje ceny regularnie się zmieniają, możesz rozważyć użycie tagu noarchive, aby zapobiec wyświetlaniu użytkownikom nieaktualnych cen w wynikach wyszukiwania.

Oto przykład zastosowanie atrybutu noindex, nofollow:

...

Ten przykład wyklucza wszystkie wyszukiwarki z indeksowania strony i podążania za linkami na stronie. Jeśli chcesz wykluczyć wiele robotów, na przykład googlebot i bing, możesz używać wielu tagów wykluczania robotów.

Tagi x-robots

Tag x-robots jest używany w nagłówku HTTP twojego adresu URL, zapewniając większą elastyczność i funkcjonalność niż metatagi, jeśli chcesz blokować dostęp robotą do wybranych stron na skalę, ponieważ możesz wykorzystać wyrażenia regularnye i blokować pliki inne niż HTML i stosować tagi noindex na całej stronie .

Na przykład możesz łatwo wykluczyć całe foldery lub typy plików (np. Moz.com/no-bake/old-recipes-to-noindex):

przykład: Header set X-Robots-Tag “noindex, nofollow”

Lub określone typy plików (np. Pliki PDF):

Header set X-Robots-Tag “noindex, nofollow”

Aby uzyskać więcej informacji na temat metatagów Robot, zapoznaj się ze Specyfikacjami meta tagów Google Robots.


Porada dla użytkowników WordPressa!

W Ustawienia>Czytanie miej pewność, że box "Proś wyszukiwarki o nieindeksowanie tej witryny" jest NIE zaznaczony. Blokuje on dostęp robotom wyszukiwarek do Twojej strony www przez plik robots.txt


Zrozumienie jak różne sposoby wpływają na crawlowanie i indeksowanie pomoże Ci uniknąć typowych problemów, które mogą uniemożliwić odnalezienie robotom ważnych stron.

Pozycje: Jak wyszukiwarki internetowe pozycjonują Twoje adresy URL?

W jaki sposób wyszukiwarki odnajdują właściwą odpowiedź na pytanie szukającego? Proces ten nazywany jest rankingiem lub kolejnością wyników wyszukiwania według najbardziej odpowiednich do najmniej istotnych dla konkretnego zapytania.

jak google pozycjonuje strony wynikach organicznych

Aby określić trafność zapytania, wyszukiwarki wykorzystują algorytmy, proces, dzięki któremu przechowywane informacje są pobierane i porządkowane w logiczny sposób. Algorytmy te przeszły wiele zmian na przestrzeni lat w celu poprawy jakości wyników wyszukiwania. Na przykład Google dokonuje korekt algorytmów każdego dnia - niektóre z tych aktualizacji są drobnymi poprawkami jakości, podczas gdy inne są podstawowymi / szerokimi aktualizacjami algorytmów wdrożonymi w celu rozwiązania określonego problemu, na przykład Penguin w celu usunięcia spamu linkowego. Sprawdź naszą historię zmian algorytmu Google, aby uzyskać listę zarówno potwierdzonych, jak i niepotwierdzonych aktualizacji Google od 2000 roku.

Dlaczego algorytm zmienia się tak często? Chociaż Google nie zawsze ujawnia szczegóły, dlaczego robią to, co robią, wiemy, że celem Google przy dostosowywaniu algorytmów jest poprawa ogólnej jakości wyszukiwania. Dlatego w odpowiedzi na pytania o aktualizację algorytmu Google odpowie następująco: „Cały czas pracujemy nad jakością wyników wyszukiwań”. Oznacza to, że jeśli Twoja witryna ucierpiała po dostosowaniu algorytmu, porównaj ją ze Wskazówkami dotyczącymi jakości Google, -  są bardzo wymowne, jeśli chodzi o potrzeby wyszukiwarek.

Czego chcą wyszukiwarki?

Wyszukiwarki zawsze chciały tego samego: udzielać właściwych odpowiedzi na pytania szukającego w najbardziej pomocnym formacie. Jeśli to prawda, dlaczego wydaje się, że SEO różni się teraz niż w poprzednich latach?

Pomyśl o tym jak o osobie uczącej się nowego języka.

Na początku znajomość języka przez tę osobę jest bardzo niewielka lub zerowa. Jednak z czasem zrozumienie nowego języka zaczyna się pogłębiać i uczy się semantyki - znaczenia stojącego za językiem oraz relacji między słowami i frazami. W końcu, przy wystarczającej praktyce, uczeń zna język wystarczająco dobrze, aby nawet zrozumieć niuanse, i jest w stanie udzielić odpowiedzi na nawet niejasne lub niepełne pytania.

Gdy wyszukiwarki dopiero zaczynały się uczyć naszego języka, znacznie łatwiej było ograć system, stosując różnego rodzaju sztuczki, które w rzeczywistości są niezgodne z wytycznymi dotyczącymi jakości. Weźmy na przykład upychanie słów kluczowych. Jeśli chciałeś uzyskać pozycję dla określonego słowa kluczowego, takiego jak „śmieszne żarty”, możesz dodać kilka razy słowa „śmieszne żarty” oraz je “zboldować” (pogrubić) z nadzieją na podniesienie pozycji w rankingu dla tego hasła:

“Witamy w zabawnych dowcipach! Opowiadamy najśmieszniejsze żarty na świecie. Śmieszne żarty są zabawne i szalone. Twój śmieszny żart czeka. Usiądź wygodnie i czytaj śmieszne dowcipy, ponieważ śmieszne żarty mogą sprawić, że będziesz szczęśliwy i zabawny.”

powyższa taktyka zapewniała okropne doświadczenia użytkowników (UX), ludzie zamiast śmiać się ze śmiesznych żartów, byli bombardowani irytującym i trudnym do odczytania tekstem. Działało to w przeszłości, jednak wyszukiwarki nigdy tego nie chciały.

Rola jaką linki odgrywają w SEO

Kiedy mówimy o linkach, możemy mieć na myśli dwie rzeczy: "linki przychodzące” to linki z innych stron internetowych, które prowadzą do Twojej witryny, podczas gdy “linki wewnętrzne” to linki w Twojej witrynie, które prowadzą do innych stron (w tej samej witrynie).

czym jest link wewnętrzny i zewnętrzny

Patrząc wstecz linki odgrywały bardzo dużą rolę w SEO. We wczesnych czasach istnienia wyszukiwarek, potrzebowały one pomocy w ustaleniu, które strony internetowe są bardziej wiarygodne i wartościowe od drugich tak aby mogły one uszeregować organiczne wyniki wyszukiwań. Obliczanie liczby linków prowadzonych do wybranej strony pomagało im w tym

Backlinki działają bardzo podobne do poczty pantoflowej w prawdziwym życiu. Weźmy za przykład kawiarnie o nazwa “kawcia u Nati”. :

  • Polecenia od innych - dobra oznaka autorytety
    • Przykład: Wielu różnych ludzi mówiło, że kawa Natali jest najlepsza w mieście
  • Polecenia od ciebie = stronnicze, więc nie jest to dobry znak autorytetu
    • Przykład: Natalia twierdzi, że jej kawa jest najlepsza w mieście
  • Polecenia z nieodpowiednich lub niskiej jakości źródeł = niezbyt dobry znak autorytetu, który może nawet oznaczać Cię jako spam
    • Przykład: Natalia zapłaciła za to, by ludzie, którzy nigdy nie odwiedzili jej kawiarni, mówili innym, że jej kawa jest najlepsza w mieście.
  • Brak poleceń = niejasny autorytet
    • Przykład: kawa Natali może być dobra, ale nie możesz znaleźć nikogo, kto ma opinię, więc nie możesz być tego pewien.

Właśnie dlatego stworzono PageRank. PageRank (część podstawowego algorytmu Google) to algorytm analizy linków nazwany na cześć jednego z założycieli Google, Larry'ego Page'a. PageRank szacuje znaczenie strony internetowej, mierząc jakość i liczbę linków do niej wskazujących. Zakładamy, że im bardziej trafna, ważna i godna zaufania jest strona internetowa, tym więcej linków uzyska.

Im więcej masz naturalnych linków zwrotnych z witryn o wysokim autorytecie (zaufanych), tym większe szanse na wyższą pozycję w wynikach wyszukiwania.

Jaką rolę treści odgrywają w SEO?

Nie byłoby sensu linków, gdyby one nie przekierowywały użytkowników do czegoś. Tym czymś są treści/zawartość strony. Treść to coś więcej niż słowa; jest nimi wszystko co jest konsumowane przez użytkowników - są nimi treści wideo, treści graficzne i oczywiście tekst. Jeśli wyszukiwarki są automatami zgłoszeniowymi, treść jest środkiem, za pomocą którego wyszukiwarki te odpowiedzi udzielają.

Za każdym razem, gdy ktoś przeprowadza wyszukiwanie, istnieją tysiące możliwych wyników, więc w jaki sposób wyszukiwarki decydują, które strony wyszukiwarka uzna za wartościowe? Dużą częścią określania pozycji strony w rankingu dla danego zapytania jest to, jak dobrze treść na stronie odpowiada celowi zapytania. Innymi słowy, czy ta strona jest zgodna z wyszukiwanymi słowami i pomaga spełnić zadanie, które poszukiwacz próbował wykonać?

Ze względu na to, że koncentrujesz się na zadowoleniu użytkowników i wykonywaniu zadań, nie ma ścisłych kryteriów dotyczących tego, jak długo powinna trwać Twoja treść, ile razy powinna zawierać słowo kluczowe ani co wstawiasz w tagach nagłówka. Wszystkie te mogą odgrywać rolę w skuteczności strony w wyszukiwaniu, ale należy skupić się na użytkownikach, którzy będą czytać treść.

Dzisiaj, z setkami, a nawet tysiącami sygnałów rankingowych, trzy pierwsze pozostają niezmiennie spójne: linki do Twojej witryny (które służą jako sygnały wiarygodności strony trzeciej), treść na stronie (jakość treści spełniająca zamierzenia osoby szukającej), oraz RankBrain.

Czym jest RankBrain?

RankBrain to element uczenia maszynowego podstawowego algorytmu Google. Uczenie maszynowe to program komputerowy, który z czasem poprawia swoje przewidywania dzięki nowym obserwacjom analizą zachowania użytkowników. Innymi słowy, zawsze się uczy, a ponieważ zawsze się uczy, jakość i precyzja wyników wyszukiwania z dnia na dzień się poprawia.

Na przykład, jeśli RankBrain zauważy niższy ranking URL zapewniający lepszy wynik dla użytkowników niż adresy URL wyższego rankingu, możesz się założyć, że RankBrain dostosuje te wyniki, przenosząc bardziej trafny wynik wyżej i obniżając liczbę mniej istotnych stron jako produktu ubocznego.

Jak działa rankbrain

Podobnie jak teraz w przypadku wyszukiwarki, nie wiemy dokładnie, co dokładnie wchodzi w skład RankBrain, ale najwyraźniej ludzie w Google też nie.

Co to oznacza dla SEO?

Ponieważ Google będzie nadal wykorzystywać RankBrain do promowania najbardziej trafnych i pomocnych treści, musimy bardziej niż kiedykolwiek wcześniej skoncentrować się na spełnianiu celów użytkowników. Zapewnij możliwie najlepsze i najbardziej trafne informacje i doświadczenia dla użytkowników odwiedzających Twoją witrynę. Jeżeli o to zadbałeś - gratuluję! Wykonałeś pierwszy duży krok osiągnięcia dobrych wyników w RankBrain.

Wskaźniki zaangażowania: korelacja, związek przyczynowy czy oba?

W rankingach Google wskaźniki zaangażowania najprawdopodobniej częściowo korelują, a częściowo są związkiem przyczynowym.

Gdy mówimy o danych dotyczących zaangażowania, mamy na myśli dane reprezentujące sposób, w jaki użytkownicy korzystają z Twojej witryny na podstawie wyników wyszukiwania.
Obejmuje to między innymi:

  • Kliknięcia (odwiedziny z wyszukiwania)
  • Czas na stronie (czas, jaki odwiedzający spędził na stronie przed jej opuszczeniem)
  • Współczynnik odrzuceń (procent wszystkich sesji witryny, w których użytkownicy oglądali tylko jedną stronę)
  • Pogo-sticking (kliknięcie wyniku organicznego, a następnie szybki powrót do SERP, aby wybrać inny wynik)

Wiele testów, wykazało, że wskaźniki zaangażowania korelują z wyższym rankingiem, jednak związek przyczynowy był przedmiotem gorących dyskusji. Czy dobre wskaźniki zaangażowania wskazują tylko na witryny o wysokiej pozycji? Czy witryny są wysoko w rankingu, ponieważ mają dobre wskaźniki zaangażowania?

Co powiedziało Google

Chociaż nigdy nie używali terminu „bezpośredni czynnik rankingowy”, Google jasno stwierdził, że wykorzystują dane na temat kliknięć do modyfikowania wyników organicznych SERP dla określonych zapytań.

Według byłego szefa Google ds. Jakości wyszukiwania Udi Manbera:

„Na sam ranking wpływ mają dane kliknięcia. Jeśli odkryjemy, że w przypadku konkretnego zapytania 80% osób klika # 2, a tylko 10% klika # 1, po chwili stwierdzimy, że prawdopodobnie 2 jest tym, czego ludzie chcą, więc zmienimy go. ”

Kolejny komentarz byłego inżyniera Google Edmonda Lau to potwierdza :

„Jest całkiem jasne, że jakakolwiek rozsądna wyszukiwarka użyłaby danych o kliknięciach do własnych wyników, aby wrócić do rankingu w celu poprawy jakości wyników wyszukiwania. Rzeczywista mechanika wykorzystywania danych o kliknięciach jest często zastrzeżona, ale Google wyraźnie pokazuje, że wykorzystuje dane o kliknięciach w swoich patentach w systemach takich jak elementy treści z korekcją rangi. ”

Ponieważ Google cały czas musi poprawiać jakość wyszukiwania, wydaje się nieuniknione, że wskaźniki zaangażowania są czymś więcej niż korelacją, ale wydaje się, że Google nie nazywa wskaźników zaangażowania „sygnałem rankingowym”, ponieważ są one używane do poprawy jakości wyszukiwania, a ranking poszczególnych adresów URL jest tego produktem ubocznym.

Co potwierdzono testami

Różne testy potwierdziły, że Google dostosuje kolejność SERP w odpowiedzi na zaangażowanie wyszukiwarki:

  • Test Randa Fishkina z 2014 roku spowodował, że wynik nr 7 przesunął się na pierwsze miejsce po przekonaniu około 200 osób do kliknięcia adresu URL w wynikach wyszukiwań. Co ciekawe, poprawa rankingu wydawała się być odizolowana od lokalizacji osób, które odwiedziły link. Pozycja w rankingu wzrosła w Stanach Zjednoczonych, gdzie znajdowało się wielu uczestników, podczas gdy pozostała niższa na stronie w Google Canada, Google Australia itp.
  • Porównanie najlepszych stron przez Larry'ego Kima i ich średni czas przebywania przed i po RankBrain wydawało się wskazywać, że element uczenia maszynowego algorytmu Google obniża pozycję w rankingu stron, na których ludzie nie spędzają tyle czasu.
  • Testy Darrena Shawa wykazały również wpływ zachowania użytkowników na wyniki wyszukiwania lokalnego i wyniki pakietu map.

Wskaźniki zaangażowania użytkowników (UX) są wyraźnie wykorzystywane przez wyszukiwarki do dostosowania wyników organicznych w celu poprawy jakości i pozycjonowania zmian pozycji jako produktu ubocznego, można śmiało powiedzieć, że SEOwcy powinni również optymalizować strony pod kątem zaangażowania. Zaangażowanie nie zmienia obiektywnej jakości strony internetowej, raczej poprawia wartość dla użytkowników w porównaniu z innymi wynikami w Google dla tego zapytania. Właśnie dlatego, po braku zmian na stronie lub braku linków zwrotnych (backlinków), może ona spaść w rankingu, jeśli zachowania użytkowników wskazują, że preferują odwiedzać i przeglądać inne strony (Twoich konkurentów).

Jeśli chodzi o ranking stron internetowych, wskaźniki zaangażowania działają jak sprawdzanie faktów. Czynniki obiektywne, takie jak linki i treść, zajmują pierwsze miejsce na stronie, a następnie wskaźniki zaangażowania pomagają Google finalnie doprecyzować i wyświetlić najbardziej trafne wyniki

Ewolucja wyników wyszukiwań

W czasach, gdy wyszukiwarkom brakowało wyrafinowania, jakie mają dzisiaj, termin „10 niebieskich linków” został wymyślony w celu opisania płaskiej struktury SERP. Za każdym razem, gdy przeprowadzono wyszukiwanie, Google zwraca stronę z 10 bezpłatnymi wynikami, każdy w tym samym formacie.

10 niebieskich linków SEO przykład

W tym krajobrazie poszukiwań, miejsce nr 1 było świętym graalem SEO. Jednak później nagle... coś się zmieniło. Google zaczął dodawać wyniki w nowych formatach na swoich stronach wyników wyszukiwania, zwane dodatkami czy funkcjami SERP. Niektóre z tych funkcji SERP obejmują:

  • Reklamy płatne
  • Featured snippets
  • People Also Ask boxes
  • Local (map) pack
  • Knowledge panel
  • Sitelinks

Google wciąż się rozwija i ewoluuje udoskonalając dodatki i co jakiś czas dodaje nowe. Eksperymentowali nawet z „SERP o zerowym wyniku”, zjawiskiem, w którym tylko jeden wynik bez żadnych wyników poniżej, z wyjątkiem opcji „zobacz więcej wyników”.

jeden wynik w google seo

Dodanie tych funkcji wywołało początkową panikę z dwóch głównych powodów. Po pierwsze, wiele z tych funkcji spowodowało, że wyniki organiczne zostały zepchnięte na kolejny plan. Innym skutkiem ubocznym jest to, że mniej użytkowników klika wyniki organiczne, ponieważ znajdują oni odpowiedź bezpośrednio w wyszukiwarce

Dlaczego Google miałby to zrobić? Wszystko wraca do wyszukiwania. Zachowanie użytkownika wskazuje, że niektóre zapytania są lepiej zaspokajane przez różne formaty treści. Zauważ, jak różne typy funkcji SERP pasują do różnych typów zamiarów zapytań.

Cel zapytania Możliwy dodatek SERP (Feature Snippet), który się wyświetli
Informacyjne Dodatek feature snippt
Informacyjne z jednym wynikiem Knowledge Graph / instant answer
Lokalne Mapka
Transakycjne Reklamy shopping ads

W rozdziale 3 porozmawiamy więcej o zamiarach, jednak aktualnie razie ważnym jest, aby wiedzieć, że odpowiedzi mogą być udzielane osobom szukającym w wielu różnych formatach, a sposób, w jaki tworzysz treść, może wpływać na format, w jakim będą one wyświetlane w wynikach wyszukiwania.

Lokalne wyszukiwanie

Wyszukiwarka taka jak Google ma własny indeks wykazów firm lokalnych, na podstawie którego tworzy wyniki wyszukiwania lokalnego.

Jeśli wykonujesz lokalne SEO dla firmy, która ma fizyczną lokalizację, klienci mogą odwiedzić (np. dentystę czy prawnika) lub dla firmy, która podróżuje, aby odwiedzić swoich klientów (np. hydraulik), upewnij się, że zweryfikujesz i zoptymalizujesz bezpłatne wpisy w Google Moja Firma.

Jeśli chodzi o lokalne wyniki wyszukiwania, Google wykorzystuje trzy główne czynniki do ustalenia rankingu:

  • Stosowność
  • Dystans
  • Rozgłos

Związek z tematem (trafność)

Trafność polega na tym, jak dobrze lokalna firma odpowiada temu, czego szuka użytkownik. Aby upewnić się, że firma robi wszystko, co w jej mocy, aby była odpowiednia dla wyszukiwarek, upewnij się, że informacje o firmie są dokładnie i rzetelnie uzupełnione.

Dystans

Google wykorzystuje Twoją lokalizację geograficzną, aby lepiej wyświetlać wyniki lokalne. Lokalne wyniki wyszukiwania są bardzo wrażliwe na bliskość, która odnosi się do lokalizacji użytkownika i / lub lokalizacji określonej w zapytaniu (jeśli wyszukiwarka ją zawierała np. hydraulik kraków).

Organiczne wyniki wyszukiwania są wrażliwe na lokalizację wyszukiwarki, choć rzadko tak wyraźne, jak w wynikach pakietu lokalnego (mapce google z wynikami lokalnymi).

Celność

Wyróżniając się jako czynnik, Google chce nagradzać dobrze znane znane firmy w realnym świecie. Oprócz znaczenia firmy w trybie offline, Google sprawdza również niektóre czynniki online w celu ustalenia lokalnego rankingu, takie jak:,

Opinie

Liczba recenzji Google, które otrzyma lokalna firma ma znaczący wpływ na ich pozycję w lokalnych wynikach wyszukiwania.

Wzmianki/odniesienia o firmie

„wzmianki o firmie” lub „wykaz firm” to internetowe odwołanie do lokalnego „NAP” (nazwa, adres, numer telefonu) lokalnej firmy na zlokalizowanej platformie (Yelp, Acxiom, YP, Infogroup, Localeze itp.) .

Na lokalne rankingi wpływa liczba i spójność cytatów z lokalnych firm. Google pobiera dane z wielu różnych źródeł w celu ciągłego tworzenia indeksu lokalnych firm. Gdy Google znajdzie wiele spójnych odniesień do nazwy firmy, lokalizacji i numeru telefonu, wzmacnia to „zaufanie” Google do tego jak ważne są te dane. Prowadzi to następnie do tego, że Google jest w stanie pokazać firmę z większym stopniem pewności. Google wykorzystuje również informacje z innych źródeł w Internecie, takich jak linki i artykuły.

Ranking organiczny

Najlepsze praktyki SEO dotyczą również lokalnego SEO, ponieważ Google określa pozycję witryny w bezpłatnych wynikach wyszukiwania przy ustalaniu lokalnego rankingu.

Lokalne zaangażowanie

Chociaż nie jest wymieniony przez Google jako lokalny czynnik rankingowy, rola zaangażowania będzie się zwiększać w miarę upływu czasu. Google nadal wzbogaca wyniki lokalne, uwzględniając rzeczywiste dane, takie jak popularne czasy odwiedzin i średnia długość odwiedzin …

... a nawet zapewnia osobom wyszukującym możliwość zadawania pytań odnośnie tej firmy!

Niewątpliwie teraz bardziej niż kiedykolwiek wcześniej na wyniki lokalne wpływ mają rzeczywiste dane. Ta interaktywność polega na tym, w jaki sposób użytkownicyi wchodzą w interakcje z lokalnymi firmami i reagują na nie, a nie wyłącznie informacje statyczne, takie jak linki i wzmianki.

Ponieważ Google chce dostarczać wyszukiwarkom najlepsze, najtrafniejsze lokalne firmy, warto w nich korzystać z wskaźników zaangażowania w czasie rzeczywistym, aby określić jakość i trafność.


Nie musisz znać tajników algorytmu Google (pozostaje tajemnicą!), Ale do tej pory powinieneś mieć doskonałą wiedzę na temat tego, jak wyszukiwarka znajduje, interpretuje, przechowuje i klasyfikuje zawartość. Uzbrojeni w tę wiedzę, dowiedzmy się o wyborze słów kluczowych, na które będą kierowane treści w Rozdziale 3 (Badanie słów kluczowych)!

A jeżeli chcesz wrócić do podstaw: zobacz nasz poradnik seo od początku


menu-circlecross-circle linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram