Relacja z hangoutu z Johnem Muellerem [16 października 2015]
Relacje16 października 2015
W dzisiejszym hangoucie John przypomniał nam o kilku istotnych sprawach związanych m.in. z przekierowaniami 301 i 302, narzędziem usuwania podstron z indeksu oraz wpływem błędów serwera na pozycje. Poniżej znajduje się skrót najważniejszych informacji.
Informacje związane z przekierowaniami:
-
plik disavow po zmianie domeny – w przypadku scalania kilku stron przez zastosowanie przekierowania 301, plik z niechcianymi linkami powinien dotyczyć tylko domeny docelowej;
-
maksymalna ilość 301 – Google podąża za maksymalnie 5 przekierowaniami 301. Większa ilość może powodować problemy z wykryciem strony docelowej;
-
302 jako 301 – zdarzają się sytuacje, w których Google może potraktować 302 (przekierowanie tymczasowe) jak 301 (przekierowanie stałe), w związku z czym 302 będzie przenosić PR na tej samej zasadzie, co 301. Może to wystąpić w sytuacji, w której wyszukiwarka uzna, że 302 zostało zastosowane błędnie;
-
utrata mocy przy 301 – John przypomniał, że użycie przekierowania 301 (w omawianym przypadku dotyczyło to przejścia z HTTP na HTTPS) powoduje drobną utratę mocy, tj. nie przenosi w 100% mocy linków prowadzących do przekierowywanego adresu.
Pozostałe informacje:
-
analiza danych z Google Analytics – zdaniem Johna, informacje z GA nnie mają wpływu na ranking;
-
analiza zachowań użytkowników w wynikach wyszukiwania – Google może analizować SERP CTR (CTR w wynikach wyszukiwania) w celu sprawdzenia, które zmiany w algorytmie dały pozytywny rezultat, a które wymagają poprawek;
-
wpływ błędów serwera na ranking – błędy serwera mogą mieć negatywny wpływ na ranking lub powodować spowolnienie intensywności ruchu Googlebota na stronie;
-
URL removal tool – zgłoszenia wysłane za pośrednictwem narzędzia URL removal tool (dostępnego w Search Console) mają ustawiony pewien okres wygasania. Jeśli po tym czasie strona nadal będzie dostępna bez ustawionego metatagu noindex, może wrócić do indeksu. Co więcej, narzędzie to nie doprowadza do całkowitego usunięcia wyniku z głównego indeksu, a jedynie do jego tymczasowego ukrycia;
-
przyspieszenie usuwania podstron z indeksu – w przypadku chęci trwałego wyindeksowania podstron, np. tych, które mogły zostać słabo ocenione przez Google (tzw. thin content), można oprócz wstawienia metatagu noindex, dodać te podstrony do sitemapy. W ten sposób Googlebot szybciej uzyska informację o tym, że na wskazanych podstronach zaszły zmiany. Po ich wyindeksowaniu można usunąć te adresy z mapy strony.
Zachęcamy do obejrzenia pełnego nagrania w języku angielskim:
Stare komentarze: 2
Niech ten Pan powie dlaczego ograniczają ilość (zapamiętywania) indeksowanych stron. Moich stron ciągle przybywa, a robot ciągle je ujmuje, dodaje, ujmuje. Tergo nie mogę zrozumieć, ale oczywiście mam na ten stan rzeczy określone zdanie....mataczenie, żeby więcej Google zarobiło upragnionych pieniędzy.
"Moich stron ciągle przybywa, a robot ciągle je ujmuje, dodaje, ujmuje."
Bardzo możliwe, że na stronie występują jakieś błędy techniczne. Można byłoby pokusić się o udział w jednym z takich hangoutów i podrzucenie mu pytania o konkretną stronę. Albo po prostu podpytać innych seowców, którzy mogliby rzucić okiem na stronę.