Wytyczne indeksowania technologii AJAX oznaczone jako przestarzałe
Aktualności15 października 2015
AJAX popularnie wykorzystywany jest przy budowie stron internetowych i wzbogacania ich funkcjonalności. Technologia ta z pewnością jest efektowna, pozwala na sprawne i szybkie przeładowywanie treści, jednak głównym jej mankamentem jest widoczność danych ładowanych przy jej pomocy dla robotów wyszukiwarek.
Jak można przeczytać na oficjalnym blogu Google, rekomendacja dotycząca indeksowania i „crawlowania” stron opartych o AJAX została oznaczona jako nieaktualna i przestarzała.
"We are no longer recommending the AJAX crawling proposal we made back in 2009."
W 2009 roku, kiedy to Google udostępniło wytyczne dotyczące usprawnień w indeksacji stron opartych o AJAX, ich system nie był w stanie odczytać i zrozumieć zawartości stron opartych o JavaScript. Google dążyło do usprawnienia odczytywania zawartości wielu technologii jak FLASH czy AJAX, aby poprawnie zrozumieć ich zawartość. Czasy się jednak zmieniają, a Google idzie z duchem czasu i porzuca zasobożerne rozwiązania na rzecz mniejszych i wygodniejszych. Głównym celem jest przede wszystkim wygoda użytkownika oraz szybkość działania serwisu.
Na chwilę obecną, o ile webmaster nie blokuje dostępu do plików .js oraz .css, roboty indeksującesą w stanie zrenderować i poprawnie odczytać treści znajdujące się na stronie internetowej wstawiane przy pomocy tych technologii. Co więcej, będą indeksować adresy z „#!”. W związku z opisaną tu zmianą, Google już od dłuższego czasu kładło nacisk na to, aby webmasterzy nie blokowali tych plików, co wiązało się m.in. z masową wysyłką powiadomień na ten temat.
Wśród działań Google można zauważyć ogólne dążenie do zapewnienia jak największej wygody użytkownika. Google zaleca tworzenie stron w taki sposób oraz przy użyciu takich technologii, aby korzystanie z nich oraz ich poprawne wyświetlenie było możliwe dla użytkownika korzystającego z dowolnej przeglądarki i wolnego łącza. AJAX z pewnością sprawdza się jako moduł, jednak nie powinniśmy wykorzystywać go w całości jako serca stron internetowych.
Należy pamiętać, że Google oznaczyło powyższą informację jako przestarzałą, jednak nadal będzie ją wspierać. Tak więc jeśli Twój serwis oparty jest o AJAX, a Ty wspomagasz indeksację swojego serwisu opartego, np. poprzez tzw. „_escaped_fragment_” – możesz być spokojny, ponieważ Google pobierze oraz zaindeksuje Twój serwis. Planując jednak jego przebudowę, powinieneś rozważyć zmianę technologii na bardziej przyjazną robotom i użytkownikom.
Stare komentarze: 1
Super artykuł, dzieki.
Nie rozumiem obaw właścieli stron internetowych odnośnie odblokowania plików CSS i Jawa w pliku robots.txt. W tych czasach dla przecietnego hackera, jeśli widzi korzyści z włamania się na daną stronę typu blog lub sklep online, patrząc na statystyki w internecie nie stwarza żadnego problemu. Poza tym ludzie zajmujący się projektowaniem stron maja dostep do wszystkich trików np. w CSS bez żadnych problemów. Google stawia na jakość, ale problemem przecietnego internauty nie majacego bladego pojecia o kodzie strony stawia go na przegranej pozycji. Jak zwykle o wszystkim decyduje zawartośc portfela.
Czekam na kolejne wartościowe artykuły o SEO i bardzo dziękuje.
https://www.newcmyk.it
Pozdrawiam