Zacznij od... pokazania się w wynikach wyszukiwania!
Jak wspomniałem w pierwszym artykule, wyszukiwarki są maszynami odpowiadającymi na ludzkie zapytania. Zostały stworzone i istnieją po to aby odkrywać, rozumieć i organizować zawartość Internetu, tak aby proponować najbardziej odpowiednią odpowiedź na pytanie szukającego.
Aby Twój artykuł lub cała strona internetowa mogła pokazać się w wynikach wyszukiwania np. w Google, musi w ogóle mieć możliwość, aby zostać odnalezioną i zauważoną przez roboty wyszukiwarek. Prawdopodobnie jest to pierwszy i kluczowy kawałek układanki SEO: Jeżeli Twoja strona nie może być zauważona/znaleziona przez roboty wyszukiwarek, to w ogóle nie ma możliwości, że kiedykolwiek pokażesz się w SERP’ach (SERP z ang. = wyniki wyszukiwania).
Wyszukiwarki mają trzy zasadnicze funkcje:
Crawlowanie czyli inaczej przeszukiwanie jest procesem odkrywczym, w trakcie którego wyszukiwarki wysyłają zespół robotów (znanych jako spiders = pająki albo crawlers=poszukiwacze) w celu znalezienia nowej lub zaktualizowanej treści. Treść to szerokie pojęcie. Może to być strona internetowa, obraz, filmik bądź dokument PDF itp.
Googlebot (robot od Google) zaczyna od pobrania/znalezienia kilku stron, następnie podąża za wszystkimi URL’ami (linkami) odsyłającymi z tej strony, aby znaleźć nowe URL’e. Poprzez podążanie za siecią znalezionych URL’i, robot crawlujacy jest w stanie znaleźć nową i dotąd nieodkrytą treść, a następnie dodać ją do swojego indeksu nazywanego Caffeine, - który jest OGROMNYM zbiorem znalezionych dotychczas URL’i - aby następnie dopasować jak najbardziej trafną odpowiedź do zapytania szukającego spośród wszystkich stron w indeksie Caffeine.
Wyszukiwarki przetwarzają, a następnie przechowują znalezione informacje w swoim indeksie, ogromnej bazie danych wszystkich dotychczas odkrytych treści, które uznają za wystarczająco dobre, by służyć szukającym, czyli nam - ludziom.
Gdy użytkownik wpisuje swoje zapytanie w wyszukiwarkę (np. Google), przeszukuje ona swój index w poszukiwaniu jak najbardziej trafnej odpowiedzi, a następnie pokazuje je w kolejności z nadzieją że pokazane wyniki udzielą odpowiedzi na pytanie szukającego - czyli w rzeczywistości rozwiążą jego problem. To sortowanie wyników wyszukiwań przez dopasowanie do pytania szukającego jest znane jako pozycjonowanie/rankowanie. W zasadzie, można przyjąć że im wyżej strona pokazuje się w wynikach wyszukiwania, tym bardziej trafna jest odpowiedź na pytanie szukającego.
Możliwym jest zablokowanie robotów wyszukiwarek z części, bądź z całej strony internetowej, lub poinstruowanie ich, aby nie przechowywały części podstron w swoim indeksie. Może być powód wykonania takiego zabiegu, jednak jeśli chcesz aby Twoja strona internetowa oraz treści mogły zostać znalezione przez roboty wyszukiwarek, musisz mieć pewność, że Twoja witryna jest dla niech dostępna i indeksowalna. W innym wypadku będzie niewidoczna.
Wielu początkujących myśli, że wszystkie wyszukiwarki są podobne. Większość ludzi jednak wie, że Google ma największy udział w rynku, jednak jak ważna jest optymalizacja pod kątem Binga, Yahoo i innych wyszukiwarek? Prawdą jest że, pomimo istnienia ponad 30 dużych wyszukiwarek, społeczność pozycjonowania stron internetowych (SEO) zwraca uwagę wyłącznie na Google. Dlaczego? Krótko mówiąc Google jest wyszukiwarką, z której korzysta większość ludzi. Jeżeli do całości dodamy Google Maps, Youtube, Obrazki (własności Google), to ponad 90% zapytań internetowych dzieje się za pośrednictwem Google - to niemal 20 razy więcej niż Bing i Yahoo razem wzięte.
Jak już wiesz - ponieważ się tego nauczyłeś - żeby mieć pewność, że Twoja strona może zostać poprawnie scrawlowana (przeszukana) i zaindeksowana przez roboty, pierwszym koniecznym warunkiem jest pojawienie się w SERP’ach (wynikach wyszukiwania). Jeżeli posiadasz już stronę www, dobrym pomysłem jest abyś zaczął od sprawdzenia jak wiele Twoich podstron znajduje się w indeksie. Zapewni to Tobie świetny podgląd tego, czy Google znajduje i poprawnie index’uje wszystkie strony, które chcesz i tych, których nie chcesz.
Pierwszym sposobem, aby to sprawdzić jest wpisanie “site:TwojaDomena.pl” w Google jako operator wyszukiwania zaawansowanego.
Liczba wyników w Google wyświetlana jako (xx results (xxx seconds)) nie jest w 100% dokładna, jednak da Ci to podgląd tego jakie Twoje podstrony wyświetlają się w Google oraz tego jak się wyświetlają (meta tytuł i meta description).
Dla bardziej sprecyzowanych wyników, wykorzystaj “Indeks > Stan” w Google Search Console (GSC). Możesz założyć darmowe konto w Google Search Console, jeśli jeszcze nie posiadasz. Wykorzystując to narzędzie - które jest prosto od Google - możesz wrzucać sitemap’y (mapy strony), i obserwować jak wiele z przesłanych adresów URL zostało zaindeksowanych i znalezionych przez Google.
Jeżeli Twoja strona w ogóle nie wyświetla się w wynikach wyszukiwania, istnieje kilka możliwych powodów, przez które może się tak dziać:
Jeżeli użyłeś zaawansowanego operatora wyszukiwania “site:twojadomena.pl” i zauważyłeś, że niektóre z ważnych podstron nie znajdują się w wynikach wyszukiwania Google lub niektóre z podstron, których nie chciałeś wyświetlać w Google jednak się tam pojawiły - powinieneś zastosować kilka z możliwości optymalizacyjnych, aby lepiej kierunkować roboty Google (Googleboty) jak mają crawlować Twoją stronę. Gdy to zrobisz pozwoli Ci to mieć lepszą kontrolę nad tym co finalnie znajdzie się w indeksie Google czyli w wynikach wyszukiwania.
Większość ludzi zdaje sobie sprawę z tego, aby mieć na uwadze Google, żeby mogło znaleźć ważne podstrony. Bardzo łatwo jednak jest zapomnieć, że istnieją również takie podstrony, których nie chcesz pokazywać w wynikach wyszukiwania. Mogą to być podstrony ze starymi URL’ami, słabą treścią, zduplikowane URL’e (bardzo częsty przypadek w sklepach internetowych), strony testowe i wiele innych…
Aby zabronić robotowi Google dostępu do danych podstron wykorzystaj plik robots.txt
Pliki robots.txt są zlokalizowane w głównym folderze strony (np. twojastrona.pl/robots.txt) i kierunkuje roboty przeglądarek, które podstrony powinny być indexowane, a które nie. Możesz również sprecyzować prędkość crawlowania Twojej strony używając sprecyzowanych dyrektyw robots.txt
Crawl budżet jest średnią liczbą URL’i, które robot google scrawluje na Twojej stronie zanim ją opuści. Optymalizacja crawl budżetu sprawia, że robot google nie traci czasu na crawlowanie Twoich mało istotnych podstron biorąc pod uwagę, że może jest zignorować pomimo wykorzystania crawl budgetu. Crawl budżetu jest bardzo istotny na dużych stronach z setkami tysięcy lub nawet milionami adresów URL, dlatego dobrym pomysłem jest zablokowanie dostępu do podstron, na których Ci nie zależy. Pamiętaj jednak aby nie blokować dostępu crawlerom do podstron, na których wykorzystałaś inne dyrektywy tj. linki kanoniczne (canonical) lub noindex. Jeżeli to zrobisz, robot Google nie będzie w stanie zastosować się do dyrektyw zastosowanych na tych podstronach.
Nie wszystkie roboty stosują się do pliku robots. Ludzie ze złymi intencjami (np. tacy, którzy masowo pobierają adresy) budują programy, które nie przestrzegają zasad ustalonych w robots.txt. Niektórzy mogą użyć pliku robots, aby zlokalizować gdzie umieściłeś swoje prywatne treści. W teorii logicznym jest , aby zablokować dostęp robotom z prywatnych podstron tj. strony logowania czy strony panelu administracyjnego, tak aby nie pojawiały się publicznie w wynikach wyszukiwania, jednak zablokowanie dostępu do nich w robots.txt oznacza, że ludzie ze złymi intencjami bardzo łatwo będą mogli je zlokalizować. Lepszym pomysłem jest wykorzystanie znacznika “noindex” na tych podstronach niż umieszczenie ich bezpośrednio w publicznie dostępnym pliku robots.txt.
Pewne strony ( w głównej mierze sklepy internetowe e-commerce) tworzą wiele takich samych treści dostępnych pod wieloma adresami URL (zduplikowana treść) poprzez dodawanie pewnych parametrów do tych URL’i. Jeżeli kiedykolwiek robiłeś zakupy online, z pewnością zawężałeś swoje wyniki wyszukiwań wykorzystując filtry. Na przykład, szukałeś butów na allegro następnie zawężałeś wyniki do rozmiaru, koloru, czy kategorii. Za każdym razem gdy zawęzisz wyniki, URL trochę się zmienia:
https://allegro.pl/kategoria/obuwie-1469?string=buty&marka=Nike
https://allegro.pl/kategoria/meskie-sportowe-257929?string=buty&marka=Nike&rozmiar=42
https://allegro.pl/kategoria/meskie-sportowe-257929?string=buty&marka=Nike&rozmiar=42&bmatch=baseline-al-product-eyesa2-engag-dict43-fas-1-1-0326&kolor-podeszwy=czarny
Skąd Google wie, która wersję adresu URL ma przedstawić szukającym? Google robi całkiem dobrą robotę wybierając reprezentatywny URL, jednak możesz wykorzystać narzędzie “Parametry URL - URL parameters” w Google Search Console aby dać znać Google dokładnie jak ma traktować Twoje strony. Jeżeli użyjesz tej funkcji aby powiedzieć Google “nie crawluj URL z parametrem XXX” to dajesz mu znać, aby schował tą zawartość przed robotami Google, co może oznaczać usunięcie tych adresów z wyników wyszukiwań. Jest to rzecz, którą będziesz chciał osiągnąć, jeżeli Twoje adresu URL generują duplikaty, jednak nie jest to rozwiązanie idealne jeśli chcesz aby te adresy się indeksowały.
Teraz, gdy już znasz taktyki, które sprawiają, że roboty trzymają się z dala od stron, które są nieistotne lub mało ważne, nauczymy się na temat optymalizacji, która pomoże robotom Google znaleźć ważne treści na Twojej stronie internetowej.
Czasami wyszukiwarki będą w stanie znaleźć część treści i podstron na Twojej witrynie poprzez crawlowanie jej, jednak inne strony bądź sekcje mogą być dla nich przyćmione lub niezrozumiałe. Dlatego bardzo ważnym jest, aby mieć pewność, że wyszukiwarki są w stanie poprawnie scrawlować całą Twoją witrynę i odkryć wszystkie ważne podstrony, które chcesz aby zostały zaindeksowane. Nie tylko stronę główną.
Zadaj sobie pytanie: Czy robot google może przeskanować całą twoją stronę, a nie tylko kilka podstron?
Jeżeli wymagasz od użytkowników aby się zalogowali, bądź odpowiedzieli na jakiekolwiek pytanie zanim zobaczą finalną (ważną) treść - to pamiętaj - że prawdopodobnie wyszukiwarki nie zobaczą zahasłowanej treści! Przecież robot crawlujący nie jest w stanie się zalogować aby zobaczyć treści.
Roboty nie są w stanie używać funkcji szukaj. Część ludzi myśli, że jeśli umieszczą funkcję szukania na swojej stronie internetowej, to roboty crawlujące będą w stanie znaleźć wszystko, czego użytkownicy szukają na tej stronie.
Elementy non-text czyli obrazy, filmy, gify itd nie powinny być używane w celu wyświetlania treści na stronie, którą chcesz umieścić w indeksie Google. Pomimo tego, że wyszukiwarki są coraz mądrzejsze i coraz to lepiej rozpoznają obrazki, to nie ma 100% gwarancji, że będą w stanie przeczytać i zrozumieć treść, którą umieścisz np. na obrazku. Najlepszym rozwiązaniem jest umieszczenie tekstu w czystym HTMLu.
Tak jak crawler musi znaleźć Twoją stronę poprzez odnośniki na innych stronach, tak Ty musisz posiadać odpowiednie odnośniki nawigacyjne na stronie, aby wskazać im drogę. Jeżeli masz stronę, którą chcesz wyświetlać w wynikach wyszukiwania Google i pozyskać na nią ruch, a jednak nie linkujesz do niej z żadnej swojej podstrony - jest ona niemal niewidoczna. Wielu ludzi popełnia błąd krytyczny podczas tworzenia struktury nawigacyjnej w sposób ciężki lub niedostępny dla robotów crawlujących przez co sprawiają, że ich strona nie wyświetli się w wynikach wyszukiwania.
Między innymi, biorąc pod uwagę powyższe powody, niezwykle ważne jest, aby Twoja strona miała czystą i przejrzystą strukturę nawigacji.
Architektura informacji jest praktyką organizacji i oznaczania treści na stronie internetowej, która ma na celu poprawienie wydajności i łatwości wyszukiwania dla użytkowników. Najlepszą architekturą informacji jest logika i intuicja, oznacza to że użytkownicy Twojej witryny nie powinni głowić się nad znalezieniem na niej odpowiedzi - czyli tego czego szukają (artykułu czy produktu)
Sitemapa (Mapa strony), jest dokładnie tym jak brzmi. Listą adresów URL Twojej strony internetowej, którą roboty crawlujące mogę przeglądać w celu odnalezienia i indeksacji treści na Twojej stronie www. Jedną z najłatwiejszych sposób aby mieć pewność, że Google znajdzie ważne dla Ciebie i Twoich użytkowników strony jest stworzenie mapy strony (sitemapy) zgodnej ze standardami Google, a następnie zgłoszenie jej wykorzystując Google Search Console. Oczywiście zgłoszenie mapy za pomocą narzędzia GSC nie jest zamiennikiem dla odpowiedniej struktury nawigacyjnej, jednak pomaga robotom crawlujących podążać ścieżką wszystkich ważnych podstron.
Upewnij się że w sitemapie umieściłeś tylko adresy URL, które chcesz aby były indeksowane. Przykładowo nie dodawaj adresów URL, jeżeli są one zablokowane przez robots.txt, mają dyrektywę noindex, sa zduplikowane bądź posiadają adres kanoniczny.
Jeśli Twoja strona nie posiada odnośników z innych stron internetowych (backlinków), wciąż może zostać szybko i sprawnie zaindeksowana gdy zostanie poprawnie zgłoszona w Google Search Console. Nie ma gwarancji, że Google umieści zgłoszone adresy w indexie, jednak… wciąż warto spróbować!
Podczas procesu crawlowania adresów URL na Twojej stronie internetowej, robot crawlujący może dostać błędy zwrotne. Możesz wejść w Google Search Console, przegląd, “Błędy skanowania” aby znaleźć adresy URL, które potencjalnie mogą taki błąd dostawać - raport z GSC pokaże Ci błędy serwera (server errors) oraz błędy 404 (nie znaleziono). Logi serwera również wykażą Ci takie błędy. Są również skarbnicą innych informacji np. tj. częstotliwość indeksowania (wizyt robota Google na Twojej stronie www). Jednak dostęp do logów serwera to bardziej zaawansowane taktyki - nie będziemy tej kwestii omawiać w poradniku SEO dla początkujących.
Zanim cokolwiek zrobisz z informacjami na temat crawlowania, warto zrozumieć błędy serwera oraz błędy 404 (nie znaleziono).
Błędy 4xx są błędami klienta (client errors), oznacza to, że żądany adres URL posiada złą składnię lub żądanie nie można zostać spełnione. Jednym z najczęstszych powodów występowania błędów 4xx, jest błąd 404 - nie znaleziono. Może on oznacza usuniętą stronę, zmianę adresy URL, złe przekierowanie itp. Gdy wyszukiwarka natrafi na błąd 404, nie może wejść na treść. Gdy użytkownik trafi na stronę 404 - może być sfrustrowany i opuścić Twoją stronę.
Błędy 5xx oznaczają, że serwer, na którym znajduje się docelowa strona internetowa, nie spełnił żądania użytkownika lub robota crawlującego. W raporcie crawlowania w GSC znajduje się dedykowana zakłada dla tego typu błędów. Zazwyczaj takie błędy występują, gdy żądanie dla danego adresu URL wygasło (trwało zbyt długo), dlatego robot Google opuścił to żądanie. Przejrzyj dokumentację Google, aby dowiedzieć się więcej o rozwiązywaniu problemów z łącznością z serwerem.
Na szczęście istnieje sposób na poinformowanie wyszukiwarek, że Twoja strona została przeniesiona - przekierowanie 301 (permanentne - trwałe).
Powiedzmy, że przenosisz stronę z TWOJADOMENA.pl/bluzy-kobiece/ na TWOJADOMENA.pl/bluzy-dla-kobiet. Wyszukiwarki i użytkownicy potrzebują przejścia ze starego adresu URL na nowy. Przekierowanie 301 jest właśnie tym przejściem
Kiedy należy wdrożyć 301: | Kiedy nie należy wdrożyć 301: | ||
---|---|---|---|
Moc SEO | Przekierowuje moc SEO ze starego adresu URL do nowego | Bez przekierowanie 301 autorytet starego adresu URL nie jest przekazywany do nowego adresu URL. | |
Indeksowanie | Pomaga Google znaleźć i zaindeksować nową wersję strony. | Istnienie błędów 404 na Twojej stronie nie wpływają bezpośrednio na wyniki organiczne jednak, gdy pozwolisz aby ludzie trafiali na strony 404 będzie to dla Ciebie utratą ruchu i pozycji. | |
UX | Zapewnia, że użytkownicy znajdą to czego szukają. | Pozwolenie użytkownikom na kliknięcie w nieaktualne adresy URL z błędem zamiast przekierowania do właściwej wersji może być dla nich bardzo frustrujące |
Kod 301 oznacza, że strona została trwale przeniesiona do nowej lokalizacji, więc unikaj przekierowywania adresów URL na niepowiązane tematycznie strony - adresy URL, na których treść starego adresu URL nie istnieje. Jeśli strona wyświetla się wysoko w Google dla danego zapytania, a ty wykonasz na niej przekierowanie 301 do adresu URL z inną treścią, jej pozycja może spaść w rankingu, ponieważ tytuł i treść, która spowodowała, że wysoko się wyświetlała - już nie istnieje. Przekierowania 301 są potężne - Używaj ich odpowiedzialnie!
Masz również opcję wykorzystania przekierowania 302, jednak powinno być ono wykorzystane tylko podczas tymczasowych zmian oraz w przypadkach, w których przekazanie mocy strony (link juice) nie stanowi problemu. 302 są trochę jak objazd drogowy. Chwilowo wysysasz ruch przez określoną trasę, jednak nie permanentnie.
Może być trudnym dla robota Google aby trafić na daną stronę jeżeli zrobisz łańcuch przekierowań. Google radzi aby zminimalizować łańcuch do minimum. Jeżeli zrobisz przekierowanie z TWOJADOMENA.pl/link1 do TWOJADOMENA.pl/link2 a następnie do TWOJADOMENA.pl/link3, lepiej zredukować przekierowanie pomiędzy i przekierować bezpośrednio TWOJADOMENA.pl/link1 do TWOJADOMENA.pl/link3.
Gdy upewnisz się, że Twoja strona jest zoptymalizowana pod kątem możliwości indeksowania, kolejnym etapem jest… jej zaindeksowanie w Google!
Gdy upewnisz się, że Twoja strona może zostać, lub już została scrawlowana, następnym etapem jest upewnić się, że może zostać zaindeksowana. Zgadza się - tylko dlatego, że Twoja witryna może zostać wykryta i zaindeksowana przez wyszukiwarkę, niekoniecznie oznacza, że zostanie zaindeksowana i będzie przechowywana w indeksie Google. W poprzedniej sekcji poświęconej indeksowaniu omawialiśmy, w jaki sposób wyszukiwarki odkrywają i crawlują strony internetowe. Indeks jest miejscem, w którym przechowywane są odkryte strony. Gdy robot znajdzie stronę, wyszukiwarka renderuje ją tak jak przeglądarka. W ten sposób wyszukiwarka analizuje zawartość tej strony, a wszystkie te informacje są przechowywane w indeksie.
Czytaj dalej, aby dowiedzieć się, jak działa indeksowanie i jak upewnić się, że Twoja witryna znajdzie się w bazie danych Google czyli - indexie
Tak, wersja strony z pamięci podręcznej cache przedstawi Ci podgląd jak robot Google widział Twoją stronę ostatni raz gdy ją odwiedził.
Google przeszukuje i zapisuje w pamięci podręcznej cache strony w innym odstępie czasowym. Strony internetowe z dużym autorytetem i popularnością jak onet.pl będą znacznie częściej crawlowane w porównaniu do mniej znanych i mniej zaufanych stron i blogów.
Możesz zobaczyć wersję strony z pamięci przeglądarki cache poprzez rozwinięcie menu klikając strzałeczkę obok nazwy domeny, następnie klikając “cached”
Możesz także wyświetlić tekstową wersję witryny, aby ustalić, czy ważna treść jest skutecznie crawlowana i indeksowana.
Tak! Oczywiście, że strony mogą zostać usunięte z indeksu. Jest kilka przyczyn, przez który adres URL może zostać usunięty z indexu:
Jeśli uważasz, że Twoja strona, która była wcześniej w indeksie Google, już się w nim nie znajduje, możesz użyć narzędzia do sprawdzania adresów URL, aby dowiedzieć się o stanie strony, lub użyć narzędzia Pobierz jako Google, które ma funkcję „Poproś o indeksowanie”, aby przesłać poszczególne adresy URL do indeksu. (Bonus: narzędzie „pobierz” w GSC ma również opcję „renderowania”, która pozwala sprawdzić, czy występują problemy z renderowaniem strony przez Google).
Googlebot musi zaindeksować Twoją stronę, aby zobaczyć jej meta-dyrektywy, więc jeśli próbujesz uniemożliwić robotom dostęp do niektórych stron, meta-dyrektywy nie są na to dobrym sposobem . Tagi robotów muszą być indeksowane/zauważone, aby były przestrzegane
Mera dyrektywy (lub “meta tagi = znaczniki meta”) są instrukcjami, które możesz dać wyszukiwarkom w zależności od tego, jak chcesz aby traktowały Twoją stronę internetową.
Możesz powiedzieć wyszukiwarkom np. “Nie indeksuj tej strony w wynikach wyszukiwań” lub “Nie przesyłaj mocy do żadnego linku na tej podstronie”. Te instrukcje są wykonywane przez Znaczniki Meta w znaczniku HTMl Twojej strony (najczęściej używane) lub przez X-Robots-Tag w nagłówku HTTP.
Znaczniki meta mogą zostać zaimplementowane w sekcji w HTML’u na Twojej stronie internetowej. Mogą wykluczyć wszystkie lub określone wyszukiwarki. Poniżej przedstawimy najczęściej stosowane meta-dyrektywy wraz z sytuacjami, w których można je zastosować.
index/noindex - informuje wyszukiwarki, czy strona powinna zostać przeszukana i zapisana w indeksie wyszukiwarek do pobrania. Jeśli zdecydujesz się użyć „noindex”, komunikujesz się z robotami indeksującymi, że chcesz wykluczyć stronę z wyników wyszukiwania. Domyślnie wyszukiwarki zakładają, że mogą indeksować wszystkie strony, więc użycie wartości „index” nie jest konieczne.
follow/nofollow - dają znak wyszukiwarkom czy roboty mają podążać “follow” czy nie mają podążać “ofollow” za linkami na tej stronie przekazując moc domeny (“link equity”) dalej przez te adresy URL. Jeżeli wybierzesz “nofollow”, roboty Google nie będą podążać dalej za linkami na danej podstronie, ani nie będą przekazywać przez nie mocy domeny. Domyślnie wszystkie strony posiadają atrybut “follow”.
noarchive służy do ograniczenia przez wyszukiwarki zapisywania kopii strony w pamięci podręcznej. Domyślnie wyszukiwarki zachowają widoczne kopie wszystkich stron, które zaindeksowały, dostępne dla wyszukiwarek poprzez link z pamięci podręcznej w wynikach wyszukiwania.
Kiedy można użyć: Jeśli prowadzisz sklep e-commerce, a Twoje ceny regularnie się zmieniają, możesz rozważyć użycie tagu noarchive, aby zapobiec wyświetlaniu użytkownikom nieaktualnych cen w wynikach wyszukiwania.
Oto przykładowe zastosowanie atrybutu noindex, nofollow:
...
Ten przykład wyklucza wszystkie wyszukiwarki z indeksowania strony i podążania za linkami na stronie. Jeśli chcesz wykluczyć wiele robotów, na przykład googlebot i bing, możesz używać wielu tagów wykluczania robotów.
Tag x-robots jest używany w nagłówku HTTP twojego adresu URL, zapewniając większą elastyczność i funkcjonalność niż metatagi. Jeśli chcesz blokować dostęp robotom do wybranych stron na dużą skalę, możesz wykorzystać wyrażenia regularne i blokować pliki inne niż HTML oraz stosować tagi noindex na całej stronie .
Na przykład możesz łatwo wykluczyć całe foldery lub typy plików (np. Moz.com/no-bake/old-recipes-to-noindex):
Przykład: Header set X-Robots-Tag “noindex, nofollow”
Lub określone typy plików (np. Pliki PDF):
Header set X-Robots-Tag “noindex, nofollow”
Aby uzyskać więcej informacji na temat metatagów Robot, zapoznaj się ze Specyfikacjami meta tagów Google Robots.
W Ustawienia>Czytanie miej pewność, że box "Proś wyszukiwarki o nieindeksowanie tej witryny" jest NIE zaznaczony. Blokuje on dostęp robotom wyszukiwarek do Twojej strony www przez plik robots.txt
Zrozumienie jak różne czynniki wpływają na crawlowanie i indeksowanie pomoże Ci uniknąć typowych problemów, które mogą uniemożliwić odnalezienie robotom ważnych stron.
W jaki sposób wyszukiwarki odnajdują właściwą odpowiedź na pytanie szukającego? Proces ten nazywany jest rankingiem lub kolejnością wyników wyszukiwania według najbardziej odpowiednich do najmniej istotnych dla konkretnego zapytania.
Aby określić trafność zapytania, wyszukiwarki wykorzystują algorytmy, procesy, dzięki którym przechowywane informacje są pobierane i porządkowane w logiczny sposób. Algorytmy te przeszły wiele zmian na przestrzeni lat w celu poprawy jakości wyników wyszukiwania. Na przykład Google dokonuje korekt algorytmów każdego dnia - niektóre z tych aktualizacji są drobnymi poprawkami jakości, podczas gdy inne są podstawowymi / szerokimi aktualizacjami algorytmów wdrożonymi w celu rozwiązania określonego problemu, na przykład Penguin w celu usunięcia spamu linkowego. Sprawdź naszą historię zmian algorytmu Google, aby uzyskać listę zarówno potwierdzonych, jak i niepotwierdzonych aktualizacji Google od 2000 roku.
Dlaczego algorytm zmienia się tak często? Chociaż Google nie zawsze ujawnia szczegóły, dlaczego robią to, co robią, wiemy, że celem Google przy dostosowywaniu algorytmów jest poprawa ogólnej jakości wyszukiwania. Dlatego w odpowiedzi na pytania o aktualizację algorytmu, Google odpowie następująco: „Cały czas pracujemy nad jakością wyników wyszukiwań”. Oznacza to, że jeśli Twoja witryna ucierpiała po dostosowaniu algorytmu, porównaj ją ze Wskazówkami dotyczącymi jakości Google, - są bardzo wymowne, jeśli chodzi o potrzeby wyszukiwarek.
Wyszukiwarki zawsze chciały tego samego: udzielać właściwych odpowiedzi na pytania szukającego w najbardziej pomocnym formacie. Jeśli to prawda, dlaczego wydaje się, że SEO różni się teraz niż w poprzednich latach?
Pomyśl o tym jak o osobie uczącej się nowego języka.
Na początku znajomość języka przez tę osobę jest bardzo niewielka lub zerowa. Jednak z czasem zrozumienie nowego języka zaczyna się pogłębiać i uczy się semantyki - znaczenia stojącego za językiem oraz relacji między słowami i frazami. W końcu, przy wystarczającej praktyce, uczeń zna język wystarczająco dobrze, aby nawet zrozumieć niuanse, i jest w stanie udzielić odpowiedzi na nawet niejasne lub niepełne pytania.
Gdy wyszukiwarki dopiero zaczynały się uczyć naszego języka, znacznie łatwiej było ograć system, stosując różnego rodzaju sztuczki, które w rzeczywistości są niezgodne z wytycznymi dotyczącymi jakości. Weźmy na przykład upychanie słów kluczowych. Jeśli chciałeś uzyskać pozycję dla określonego słowa kluczowego, takiego jak „śmieszne żarty”, możesz dodać kilka razy słowa „śmieszne żarty” oraz je “zboldować” (pogrubić) z nadzieją na podniesienie pozycji w rankingu dla tego hasła:
“Witamy w zabawnych dowcipach! Opowiadamy najśmieszniejsze żarty na świecie. Śmieszne żarty są zabawne i szalone. Twój śmieszny żart czeka. Usiądź wygodnie i czytaj śmieszne dowcipy, ponieważ śmieszne żarty mogą sprawić, że będziesz szczęśliwy i zabawny.”
Powyższa taktyka zapewniała okropne doświadczenia użytkowników (UX), ludzie zamiast śmiać się ze śmiesznych żartów, byli bombardowani irytującym i trudnym do odczytania tekstem. Działało to w przeszłości, jednak wyszukiwarki nigdy tego nie chciały.
Kiedy mówimy o linkach, możemy mieć na myśli dwie rzeczy: "linki przychodzące” to linki z innych stron internetowych, które prowadzą do Twojej witryny, podczas gdy “linki wewnętrzne” to linki w Twojej witrynie, które prowadzą do innych stron (w tej samej witrynie).
Patrząc wstecz, linki odgrywały bardzo dużą rolę w SEO. We wczesnych czasach istnienia wyszukiwarek, potrzebowały one pomocy w ustaleniu, które strony internetowe są bardziej wiarygodne i wartościowe od drugich, tak aby mogły one uszeregować organiczne wyniki wyszukiwań. Obliczanie liczby linków prowadzonych do wybranej strony pomagało im w tym.
Backlinki działają bardzo podobnie do poczty pantoflowej w prawdziwym życiu. Weźmy za przykład kawiarnię o nazwie “kawcia u Nati”. :
Właśnie dlatego stworzono PageRank. PageRank (część podstawowego algorytmu Google) to algorytm analizy linków nazwany na cześć jednego z założycieli Google, Larry'ego Page'a. PageRank szacuje znaczenie strony internetowej, mierząc jakość i liczbę linków do niej wskazujących. Zakładamy, że im bardziej trafna, ważna i godna zaufania jest strona internetowa, tym więcej linków uzyska.
Im więcej masz naturalnych linków zwrotnych z witryn o wysokim autorytecie (zaufanych), tym większe szanse na wyższą pozycję w wynikach wyszukiwania.
Nie byłoby sensu linków, gdyby one nie przekierowywały użytkowników do czegoś. Tym czymś są treści/zawartość strony. Treść to coś więcej niż słowa; jest nimi wszystko co jest konsumowane przez użytkowników - są nimi treści wideo, treści graficzne i oczywiście tekst. Jeśli wyszukiwarki są automatami zgłoszeniowymi, treść jest środkiem, za pomocą którego wyszukiwarki te odpowiedzi udzielają.
Za każdym razem, gdy ktoś przeprowadza wyszukiwanie, istnieją tysiące możliwych wyników, więc w jaki sposób wyszukiwarki decydują, które strony wyszukiwarka uzna za wartościowe? Dużą częścią określania pozycji strony w rankingu dla danego zapytania jest to, jak dobrze treść na stronie odpowiada celowi zapytania. Innymi słowy, czy ta strona jest zgodna z wyszukiwanymi słowami i pomaga spełnić zadanie, które poszukiwacz próbował wykonać?
Ze względu na to, że koncentrujesz się na zadowoleniu użytkowników i wykonywaniu zadań, nie ma ścisłych kryteriów dotyczących tego, jak długo powinna trwać Twoja treść, ile razy powinna zawierać słowo kluczowe, ani co wstawiasz w tagach nagłówka. Wszystkie te kryteria mogą odgrywać rolę w skuteczności strony w wyszukiwaniu, ale należy skupić się na użytkownikach, którzy będą czytać treść.
Dzisiaj, z setkami, a nawet tysiącami sygnałów rankingowych, trzy pierwsze pozostają niezmiennie spójne: linki do Twojej witryny (które służą jako sygnały wiarygodności strony trzeciej), treść na stronie (jakość treści spełniająca zamierzenia osoby szukającej), oraz RankBrain.
RankBrain to element uczenia maszynowego podstawowego algorytmu Google. Uczenie maszynowe to program komputerowy, który z czasem poprawia swoje przewidywania dzięki nowym analizom zachowań użytkowników. Innymi słowy, zawsze się uczy, a ponieważ zawsze się uczy, jakość i precyzja wyników wyszukiwania z dnia na dzień się poprawia.
Na przykład, jeśli RankBrain zauważy niższy ranking URL zapewniający lepszy wynik dla użytkowników, niż adresy URL wyższego rankingu, możesz się założyć, że RankBrain dostosuje te wyniki, przenosząc bardziej trafny wynik wyżej i obniżając liczbę mniej istotnych stron, jako produktu ubocznego.
Podobnie jak teraz, w przypadku wyszukiwarki, nie wiemy dokładnie, co wchodzi w skład RankBrain, ale najwyraźniej ludzie w Google też nie.
Ponieważ Google będzie nadal wykorzystywać RankBrain do promowania najbardziej trafnych i pomocnych treści, musimy bardziej niż kiedykolwiek wcześniej skoncentrować się na spełnianiu celów użytkowników. Zapewnij możliwie najlepsze i najbardziej trafne informacje i doświadczenia dla użytkowników odwiedzających Twoją witrynę. Jeżeli o to zadbałeś - gratuluję! Wykonałeś pierwszy duży krok osiągnięcia dobrych wyników w RankBrain.
W rankingach Google, wskaźniki zaangażowania najprawdopodobniej częściowo korelują, a częściowo są związkiem przyczynowym.
Gdy mówimy o danych dotyczących zaangażowania, mamy na myśli dane reprezentujące sposób, w jaki użytkownicy korzystają z Twojej witryny na podstawie wyników wyszukiwania.
Obejmuje to między innymi:
Wiele testów, wykazało, że wskaźniki zaangażowania korelują z wyższym rankingiem, jednak związek przyczynowy był przedmiotem gorących dyskusji. Czy dobre wskaźniki zaangażowania wskazują tylko na witryny o wysokiej pozycji? Czy witryny są wysoko w rankingu, ponieważ mają dobre wskaźniki zaangażowania?
Chociaż nigdy nie używali terminu „bezpośredni czynnik rankingowy”, Google jasno stwierdził, że wykorzystuje dane na temat kliknięć do modyfikowania wyników organicznych SERP dla określonych zapytań.
Według byłego szefa Google ds. Jakości wyszukiwania Udi Manbera:
„Na sam ranking wpływ mają dane kliknięcia. Jeśli odkryjemy, że w przypadku konkretnego zapytania 80% osób klika # 2, a tylko 10% klika # 1, po chwili stwierdzimy, że prawdopodobnie 2 jest tym, czego ludzie chcą, więc zmienimy go. ”
Kolejny komentarz byłego inżyniera Google Edmonda Lau to potwierdza :
„Jest całkiem jasne, że jakakolwiek rozsądna wyszukiwarka użyłaby danych o kliknięciach do własnych wyników, aby wrócić do rankingu w celu poprawy jakości wyników wyszukiwania. Rzeczywista mechanika wykorzystywania danych o kliknięciach jest często zastrzeżona, ale Google wyraźnie pokazuje, że wykorzystuje dane o kliknięciach w swoich patentach w systemach takich jak elementy treści z korekcją rangi. ”
Ponieważ Google cały czas musi poprawiać jakość wyszukiwania, wydaje się nieuniknione, że wskaźniki zaangażowania są czymś więcej niż korelacją, ale wydaje się, że Google nie nazywa wskaźników zaangażowania „sygnałem rankingowym”, ponieważ są one używane do poprawy jakości wyszukiwania, a ranking poszczególnych adresów URL jest tego produktem ubocznym.
Różne testy potwierdziły, że Google dostosuje kolejność SERP w odpowiedzi na zaangażowanie wyszukiwarki:
Wskaźniki zaangażowania użytkowników (UX) są wyraźnie wykorzystywane przez wyszukiwarki do dostosowania wyników organicznych w celu poprawy jakości i pozycjonowania zmian pozycji jako produktu ubocznego, można śmiało powiedzieć, że SEOwcy powinni również optymalizować strony pod kątem zaangażowania. Zaangażowanie nie zmienia obiektywnej jakości strony internetowej, raczej poprawia wartość dla użytkowników w porównaniu z innymi wynikami w Google dla tego zapytania. Właśnie dlatego, po braku zmian na stronie lub braku linków zwrotnych (backlinków), może ona spaść w rankingu, jeśli zachowania użytkowników wskazują, że preferują odwiedzać i przeglądać inne strony (Twoich konkurentów).
Jeśli chodzi o ranking stron internetowych, wskaźniki zaangażowania działają jak sprawdzanie faktów. Czynniki obiektywne, takie jak linki i treść, zajmują pierwsze miejsce na stronie, a następnie wskaźniki zaangażowania pomagają Google finalnie doprecyzować i wyświetlić najbardziej trafne wyniki
W czasach, gdy wyszukiwarkom brakowało wyrafinowania, jakie mają dzisiaj, termin „10 niebieskich linków” został wymyślony w celu opisania płaskiej struktury SERP. Za każdym razem, gdy przeprowadzono wyszukiwanie, Google zwraca stronę z 10 bezpłatnymi wynikami, każdy w tym samym formacie.
W tym krajobrazie poszukiwań, miejsce nr 1 było świętym graalem SEO. Jednak później nagle... coś się zmieniło. Google zaczął dodawać wyniki w nowych formatach na swoich stronach wyników wyszukiwania, zwane dodatkami czy funkcjami SERP. Niektóre z tych funkcji SERP obejmują:
Google wciąż się rozwija i ewoluuje udoskonalając dodatki i co jakiś czas dodaje nowe. Eksperymentowali nawet z „SERP o zerowym wyniku”, zjawiskiem, w którym tylko jeden wynik istnieje bez żadnych wyników poniżej, z wyjątkiem opcji „zobacz więcej wyników”.
Dodanie tych funkcji wywołało początkową panikę z dwóch głównych powodów. Po pierwsze, wiele z tych funkcji spowodowało, że wyniki organiczne zostały zepchnięte na kolejny plan. Innym skutkiem ubocznym jest to, że mniej użytkowników klika wyniki organiczne, ponieważ znajdują oni odpowiedź bezpośrednio w wyszukiwarce
Dlaczego Google miałby to zrobić? Wszystko wraca do wyszukiwania. Zachowanie użytkownika wskazuje, że niektóre zapytania są lepiej zaspokajane przez różne formaty treści. Zauważ, jak różne typy funkcji SERP pasują do różnych typów zamiarów zapytań.
Cel zapytania | Możliwy dodatek SERP (Feature Snippet), który się wyświetli |
---|---|
Informacyjne | Dodatek feature snippt |
Informacyjne z jednym wynikiem | Knowledge Graph / instant answer |
Lokalne | Mapka |
Transakycjne | Reklamy shopping ads |
W rozdziale 3 porozmawiamy więcej o zamiarach, jednak aktualnie ważne jest, aby wiedzieć, że odpowiedzi mogą być udzielane osobom szukającym w wielu różnych formatach, a sposób, w jaki tworzysz treść, może wpływać na format, w jakim będą one wyświetlane w wynikach wyszukiwania.
Wyszukiwarka taka jak Google ma własny indeks wykazów firm lokalnych, na podstawie którego tworzy wyniki wyszukiwania lokalnego.
Jeśli wykonujesz lokalne SEO dla firmy, która ma fizyczną lokalizację, i którą klienci mogą odwiedzić (np. dentystę czy prawnika) lub dla firmy, która podróżuje, aby odwiedzić swoich klientów (np. hydraulik), upewnij się, że zweryfikujesz i zoptymalizujesz bezpłatne wpisy w Google Moja Firma.
Jeśli chodzi o lokalne wyniki wyszukiwania, Google wykorzystuje trzy główne czynniki do ustalenia rankingu:
Trafność polega na tym, jak dobrze lokalna firma odpowiada temu, czego szuka użytkownik. Aby upewnić się, że firma robi wszystko, co w jej mocy, aby była odpowiednia dla wyszukiwarek, upewnij się, że informacje o firmie są dokładnie i rzetelnie uzupełnione.
Google wykorzystuje Twoją lokalizację geograficzną, aby lepiej wyświetlać wyniki lokalne. Lokalne wyniki wyszukiwania są bardzo wrażliwe na bliskość, która odnosi się do lokalizacji użytkownika i / lub lokalizacji określonej w zapytaniu (jeśli wyszukiwarka ją zawierała np. hydraulik Kraków).
Organiczne wyniki wyszukiwania są wrażliwe na lokalizację wyszukiwarki, choć rzadko tak wyraźne, jak w wynikach pakietu lokalnego (mapce Google z wynikami lokalnymi).
Wyróżniając się jako czynnik, Google chce nagradzać dobrze znane znane firmy w realnym świecie. Oprócz znaczenia firmy w trybie offline, Google sprawdza również niektóre czynniki online w celu ustalenia lokalnego rankingu, takie jak:,
Liczba recenzji Google, które otrzyma lokalna firma ma znaczący wpływ na ich pozycję w lokalnych wynikach wyszukiwania.
„wzmianki o firmie” lub „wykaz firm” to internetowe odwołanie do lokalnego „NAP” (nazwa, adres, numer telefonu) lokalnej firmy na zlokalizowanej platformie (Yelp, Acxiom, YP, Infogroup, Localeze itp.) .
Na lokalne rankingi wpływa liczba i spójność cytatów z lokalnych firm. Google pobiera dane z wielu różnych źródeł w celu ciągłego tworzenia indeksu lokalnych firm. Gdy Google znajdzie wiele spójnych odniesień do nazwy firmy, lokalizacji i numeru telefonu, wzmacnia to „zaufanie” Google do tego jak ważne są te dane. Prowadzi to następnie do tego, że Google jest w stanie pokazać firmę z większym stopniem pewności. Google wykorzystuje również informacje z innych źródeł w Internecie, takich jak linki i artykuły.
Najlepsze praktyki SEO dotyczą również lokalnego SEO, ponieważ Google określa pozycję witryny w bezpłatnych wynikach wyszukiwania przy ustalaniu lokalnego rankingu.
Chociaż nie jest wymieniony przez Google jako lokalny czynnik rankingowy, rola zaangażowania będzie się zwiększać w miarę upływu czasu. Google nadal wzbogaca wyniki lokalne, uwzględniając rzeczywiste dane, takie jak popularne czasy odwiedzin i średnia długość odwiedzin …
... a nawet zapewnia osobom wyszukującym możliwość zadawania pytań odnośnie tej firmy!
Niewątpliwie teraz bardziej niż kiedykolwiek wcześniej na wyniki lokalne wpływ mają rzeczywiste dane. Ta interaktywność polega na tym, w jaki sposób użytkownicy wchodzą w interakcje z lokalnymi firmami i reagują na nie, a nie wyłącznie na informacje statyczne, takie jak linki i wzmianki.
Ponieważ Google chce dostarczać wyszukiwarkom najlepsze, najtrafniejsze lokalne firmy, warto w nich korzystać z wskaźników zaangażowania w czasie rzeczywistym, aby określić jakość i trafność.
Nie musisz znać tajników algorytmu Google (pozostaje tajemnicą!), Ale do tej pory powinieneś mieć doskonałą wiedzę na temat tego, jak wyszukiwarka znajduje, interpretuje, przechowuje i klasyfikuje zawartość. Uzbrojeni w tę wiedzę, dowiedzmy się o wyborze słów kluczowych, na które będą kierowane treści w Rozdziale 3 (Badanie słów kluczowych)!
A jeżeli chcesz wrócić do podstaw: zobacz nasz poradnik seo od początku
SEMhub - Michał Jania
Poręba 182
32-425 Trzemeśnia