Gdyby Google zechciało mnie wysłuchać… SEO-wcy komentują
Aktualności27 września 2017
Pomysł był bajecznie prosty: dać możliwość "dialogu" z Google tym, którzy najbardziej na to zasługują. Tym, którzy w nierównej walce o pozycje w top 10 wyszukiwarki, stają w pierwszym szeregu i robią to codziennie - SEO-wcom. Nie do wszystkich udało nam się dotrzeć, ale uwierz - jest co poczytać ;)
Google, czy podejmiesz rękawicę i wysłuchasz, co mają Ci do powiedzenia?
Kolejność przytaczanych wypowiedzi jest przypadkowa.
Gdyby Google zechciało mnie wysłuchać to powiedział(-a)bym...
Tomasz Stopka (http://semurai.pl)
Właściciel agencji SEMURAI. Swoje doświadczenie zdobywa nieprzerwanie od 2008 roku. Był prelegentem, szkoleniowcem, konsultantem i liderem zespołu. Pracował w agencjach SEO, portalu horyzontalnym ale i jako zdalna część zespołu SEO. Nie boi się żadnych wyzwań zawodowych.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym... że nie podoba mi się ostatnio ich sposób działania. Jest niejasny, mglisty. Zbyt dużo w ich działaniach ostatnimi czasy polityki i aż zanadto chłodnej kalkulacji. Czuć, że coś się popsuło i rzutuje to na produkty. To już nie jest to Google które jeszcze do niedawna można było "pomacać" gadając z John'em Mueller’em na Webmaster Office Hangout on Air. Wprowadzanie na siłę kolejnych zawsze lepszych rozwiązań bez możliwości powrotu do starej wersji.
Ciągłe uwagi, zakazy czy groźby. Strach w ogóle cokolwiek robić!
Gdyby Google zechciało mnie wysłuchać, to polecałbym im zweryfikować sposób działania wyszukiwarki Google.
Innym natomiast chciałbym przypomnieć, że Google to nie alfa i omega mimo wszystko ;-) Bing też daje radę! :-D
Łukasz Żelezny (https://zelezny.uk)
Jeden z najbardziej rozpoznawalnych prelegentów w branży. Podróżuje po całym świecie jako specjalista ds. SEO i social mediów. Od lat mieszka i pracuje w Londynie.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym, że chciałbym lepszej komunikacji na linii webmaster - search quality team. Obecna komunikacja poprzez forum jest wysoce nieefektywna. Ponadto kiedy patrzę jak na przykład webmaster BBC spowiada się publicznie na forum (https://productforums.google.com/forum/#!category-topic/webmasters/XNBqi7n-UEk) z kary ręcznej, nałożonej raczej poprzez nadgorliwość pracownika Google (lub algorytm) niż za celowe próby manipulowania wynikami, to ogarnia mnie uczucie niemocy. Szczególnie, że cała komunikacja jest publiczna, łącznie z odpowiedziami pisanymi przez pracowników Google. Takie rzeczy dobrze nie robią markom, a już szczególnie tak dużym jak na przykład BBC (http://searchengineland.com/google-sends-bbc-news-a-manual-link-penalty-notification-151718).
Wydaje mi się że można by rozważyć zamknięte kanały komunikacji bezpośredniej między pracownikami Google i webmasterami.
Autorka bloga lexy.com.pl/blog Związana z branżą SEO od 2005 roku. Wydała kurs pozycjonowania dla początkujących oraz kontynuację w postaci kursu dla średniozaawansowanych. Właścicielka firmy INFEO Marta Gryszko, CCO w Wake App Sp. z o.o.
Gdyby Google zechciało mnie wysłuchać, to powiedziałabym... aby nie zapominało, że istnieje właśnie dzięki nam i dla nas. Im bardziej będzie zasypywać swoje wyniki reklamami, im bardziej będzie pokazywać, że ma dominującą pozycję i że jest tej pozycji pewne, tym bardziej będzie się zbliżać do jej stopniowego przejmowania przez konkurencję.
Krzysztof Marzec (https://www.devagroup.pl/)
CEO @ DevaGroup. Absolwent elektronicznego przetwarzania informacji na UJ. Certyfikowany trener Google AdWords oraz certyfikowany specjalista Google Analytics. Autor szkoleń i artykułów z tej tematyki, wykładowca UJ oraz WSE im. Józefa Tischnera. Pracował dla takich marek, jak: DaWanda, Neo24, Shoper.pl, Conrad.pl, Interia.pl, Grupa RMF czy Wydawnictwo Bauer. Specjalizuje się w strategiach wykorzystujących analitykę cyfrową do optymalizacji działań.
W codziennej pracy z SEO raczej nauczyłem się, że mamy szybciej lub wolniej ewoluującą sytuację zastaną, z którą wiele nie zrobimy. Ale gdybym miał 3 życzenia, to prosił bym o jasne wyznaczniki, mniej gdybania na hangoutach, wprowadzających zamieszanie, błędne interpretacje, bądź informacje nie do końca prawdziwe. Jako drugie życzenie, chciałbym znać pełne dane o linkach przychodzących w GSC, móc wyeksportować sobie je w podziale na podstrony, a w raporcie słów kluczowych mieć adres strony docelowej dla każdego z wymienionych słów kluczowych. Trzecie – znać status domeny, czy jest ukarana modyfikatorami ze względu na przeszłość, słynne "kary algorytmiczne" pokazane nawet na zasadzie jest/nie ma, to by była gratka.
A z realnych spraw? Chciałbym jeden panel w Google, gdzie wybieram kim jestem – webmaster, seo, sem, właściciel biznesu itp. i dostaje pełną listę zmian i nowości we wszystkich produktach Google, ale tylko takich zmian, które mnie dotyczą. Śledzenie tego i bycie na czasie bywa udręką, nadmiar informacji jest równie zły, co ich brak.
Szymon Słowik (https://takaoto.pro)
Współzałożyciel Takaoto.pro, marketer specjalizujący się w SEO i strategiach pozyskiwania ruchu organicznego. Wykładowca, bloger i autor publikujący w szeregu branżowych tytułów oraz prelegent konferencji marketingowych.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym… czy moglibyśmy liczyć na więcej transparentności? Jako specjaliści, którym klienci powierzają opiekę nad swoimi biznesami w sieci, chcielibyśmy móc rzetelnie analizować i monitorować jakość ruchu organicznego. Analiza słów kluczowych w kontekście precyzyjnego pomiaru konwersji jest niezwykle utrudniona od momentu wprowadzenia ograniczeń w Google Analytics (raport Pozyskiwanie > Search Console > Zapytania) i Google Search Console (limit monitorowanych fraz do 999). Analityka w SEO stoi pod znakiem zapytania także w związku z ostatnimi komunikatami mówiącymi jakoby software do monitorowania pozycji i analizy słów kluczowych również stanowił przejaw Black Hat SEO. Gdybym miał możliwość porozmawiania z decydentami w Google, to spytałbym prowokacyjnie, czemu w Google Search Console (raport Linki do Twojej witryny) nie ma więcej danych jakościowych związanych z analizą typów linków (dofollow, nofollow, redirect, graficzne vs. tekstowe etc.)? Wyobrażacie sobie taką sytuację, że w panelu Google przy każdym napotkanym linku byłaby informacja, czy jest on brany pod uwagę przy ustalaniu rankingu, czy też ignorowany? Z jednej strony mogłoby to przynieść pozytywny efekt dla Google, ponieważ webmasterzy zrozumieliby, że wiele linków, które pozyskują nie ma żadnej wartości i zaniechaliby tego procederu. Jednak z drugiej strony, i to zapewne jest powód, dla którego Google nigdy na coś takiego się nie odważy, wyszłoby na jaw, jak wiele linków „spamerskich”, sprzecznych z wytycznymi Google, jest przez algorytm uznawanych za jakościowe. Jednocześnie mogłoby się okazać, że duża ilość „naturalnych” linków, jest po prostu bezwartościowa.
Podstawą jakościowych działań marketingowych, do których przecież Google namawia w swoich działaniach edukacyjnych i PR-owych, jest analityka, wyciąganie wniosków i optymalizacja. Specjaliści i praktycy po latach doświadczeń rozumieją jak działają komunikaty Google i jak czytać między wierszami. Natomiast klienci, marketerzy, webmasterzy żyją cały czas w sferze mitów - pomiędzy tym, co deklaruje Google, a tym, co wynika z obserwowanych faktów. Jeśli dodamy do tego wyciąganie nieuprawnionych wniosków z sytuacji nieistotnych statystycznie lub z korelacji pozornych (np. Włączyłem kampanię AdWords i wzrósł mi ruch organiczny, więc reklamy podnoszą pozycje w organiku) to efekt jest taki, że poziom wiedzy o SEO zamiast wzrastać, to spada. A to zawsze jest ze szkodą dla firm chcących prowadzić jakościowe działania dla swoich klientów. Szkodzi to także w oczywisty sposób tym ostatnim. Zapytałbym więc Google - czy to rzeczywiście jest ich celem?
Sławomir Borowy (www.asante.pro)
Z zawodu - pełnokrwisty SEO-wiec skupiony na dużych markach, z zamiłowania - szkoleniowiec z tematyk e-marketingowych, z przyjemnością - konferansjer Festiwalu SEO.
Niezmiennie od lat stoję na stanowisku, że nie jest możliwe posiadać pełną kontrolę nad linkami zewnętrznymi prowadzącymi do domeny.
Stąd wszelkie filtry algorytmiczne i ręczne wynikające z samego profilu linków uważam za kuriozum, przez które wielu specjalistów SEO czuje się zobowiązane do stałego kontrolowania linków przychodzących do swoich domen.
Spora część osób kupuje narzędzia monitorujące i traci sporo czasu tylko na to, aby aktualizować swoje pliki Disavow w samej tylko obawie przed filtrami. To działanie w żaden sposób nie buduje lepszej sieci, a energię i budżety można by spożytkować lepiej.
A wystarczyłoby przecież, aby moc takich odnośników była dla algorytmu zerowa.
Uważam, że Google nie zmieni jednak swojej strategii.
Wszystko przez niedoskonały algorytm, który dobrzy specjaliści przy odpowiedniej strategii wciąż są w stanie "położyć na łopatki". Gdyby pozwolić wszystkim linkować z dowolnych źródeł, efektywność strategii niezgodnych z wytycznymi Google wyraźnie by wzrosła, co znów mogłoby wiązać się z mniejszym zainteresowaniem płatną reklamą w wyszukiwarce.
Dlatego właśnie w ostatnich latach obserwowaliśmy falę ręcznych filtrów za linki zewnętrzne, często z absurdalnymi przykładami odnośników, które nie zawsze dodane zostały przez osobę rzeczywiście odpowiedzialną za działania promocyjne.
W sądzie obowiązuje domniemanie niewinności, szkoda zasada ta nie doczekała się uznania przez inżynierów odpowiedzialnych za algorytm wyszukiwarki Google. Na zmianę jednak nie ma co liczyć, bo tu liczą się przede wszystkim pieniądze ;)
Ewelina Podrez (http://foxstrategy.pl/)
Prezes Zarządu i założycielka Agencji Fox Strategy. Pozycjonowaniem zajmuje się od 8 lat. Przeszła w tym czasie pełną ścieżkę kariery agencyjnej, pracując m.in.przy wymagających serwisach finansowych i e-commerce. W Fox Strategy stawia na uczciwe i transparentne podejście do tematyki SEO oraz indywidualną strategię dla każdego prowadzonego projektu.
Zdecydujcie się! :)
Tyle mówicie o jakości wyników wyszukiwania, a w TOPach wciąż pojawiają się spam-strony, które w teorii nie mają prawa się w nich utrzymać. Linkbuilding jest według Was próbą manipulacji wynikami wyszukiwania, a właściciele stron powinni skupić się na optymalizacji i naturalnej budowie popularności. Tymczasem do TOPów konkurencyjnych branż trafiają przede wszystkim strony sztucznie linkowane, nierzadko narzędziowo i/lub spamem.
Zdaję sobie sprawę, że stworzenie sprawiedliwego algorytmu i jednoznaczna ocena stron w SERP nie jest łatwa. Proces prac nad nim trwa jednak zdecydowanie za długo i póki co wprowadza podwójne standardy. Brak jednoznacznych mechanizmów sprawia, że wybór dobrego usługodawcy SEO jest nawet dla świadomego klienta niezwykle trudny (skąd ma on wiedzieć, jakie metody są skuteczne i nie doprowadzą do kary?), a inwestycja w optymalizację i gruntowną przebudowę serwisu nie zawsze opłacalna.
Katarzyna Baranowska (http://www.foxstrategy.pl/)
Wiceprezes i współwłaściciel agencji Fox Strategy, ekspert SEO.Marketingiem internetowym zajmuje się od ponad 8 lat. Specjalizuje się w audytach serwisów i sklepów internetowych pod kątem SEO, optymalizacji witryn, przygotowywaniu i wdrożeniu strategii związanych z budowaniem popularności serwisów w wyszukiwarkach internetowych.
Gdyby Google zechciało mnie wysłuchać to powiedziałabym, że chyba właśnie piekło zamarzło :P a tak poważnie to chętnie porozmawiałabym o tym co zrobić by umożliwić częstszą komunikację pomiędzy SEOwcami bądź właścicielami witryn a zespołem Google. Póki co pośrednią funkcję pełni tu Google Search Console, ale narzędzie to jest jeszcze dalekie od naszych wyobrażeń jeśli chodzi o dogłębne diagnozowanie problemów związanych z widocznością domen w wynikach wyszukiwania czy komunikacją z Google.
Generalnie Google nie rozpieszcza SEOwców i wiele kwestii związanych choćby z samym działaniem algorytmu wciąż jeszcze będzie pilnie strzeżonych, ale pewnie z wrodzonej ciekawości podpytałabym o kilka kwestii, głównie tych związanych z linkowaniem wewnętrznym, indeksacją i crawl budget.
Trudno byłoby mi się powstrzymać i nie zapytać o te legendarne „naturalne linki” :) Myślę, że w tym temacie mielibyśmy sobie sporo do powiedzenia – zarówno jeśli chodzi o sposób oceny linków, ich pozyskiwanie, to jak działa (bądź nie działa :P) cały proces związany ze zrzekaniem się odnośników za pośrednictwem disavow tool oraz czułość algorytmu związana z przyrostem linków i ich jakością.
Mariusz Kołacz (https://socialtrends.pl/mariusz-kolacz)
Jako freelancer wykonuje kompleksowe usługi marketingu internetowego dla firm z sektora MŚP oraz instytucji publicznych i edukacyjnych. Specjalizuje się w SEO dla e-commerce, marketingu efektywnościowym oraz reklamie w mediach społecznościowych. W godzinach wolnych od pracy lubię dobrą książkę z zakresu medycyny lub parapsychologii.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym, aby połączyli siły z Facebookiem i razem opracowali skuteczny mechanizm śledzenia i raportowania konwersji. Właściciele sklepów, jak również osoby prowadzące kampanie dla e-sklepów obserwują systematyczny wzrost liczby użytkowników, którzy stosują dodatki blokujące nie tylko wyświetlanie reklam, ale również i przesyłanie danych do systemów analityki Google Analytics, Facebook Analytics. Patrząc na to z perspektywy marketingowca, aktualny stan nie napawa optymizmem i jeśli nic z tym nie zrobicie będzie coraz gorzej. Pogorszenie jakości danych zgromadzonych w systemach już dzisiaj wpływa negatywnie na raportowanie z kampanii, jeżeli aktualny trend wykorzystania adblokerów utrzyma się, w dalszej perspektywie czasu może znacząco zmniejszyć zaufanie do reklamy on-line (w skali globalnej). Warto już dzisiaj pomyśleć o połączeniu sił i zainicjować projekt, który z jednej strony pozwoli przekonać użytkowników, aby nie stosowali adblokerów, z drugiej - tak rozbudować systemy analityczne, aby zbierały dane w oparciu o alternatywne metody.
Paweł Gontarek (https://seo.zgred.pl/)
W branży znany jako Zgred. Weteran pozycjonowania z wieloletnim doświadczeniem. Zajmuje się audytami SEO i optymalizacją, prowadzi znany wśród pozycjonerów blog.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym żeby sobie te wszystkie algorytmy wsadziło głęboko tam, gdzie słoneczko nie dochodzi. Ale nie, Ono woli gdy słońce świeci przez 24 godziny na dobę. I trzeba się męczyć testując, analizując i odgadując algorytmy, którymi Nas Ono karmi i … dzięki którym to algorytmom mamy robotę. Chciałbym Ono zapytać, czy zdawało sobie sprawę, iż kreuje nowe miejsca pracy, zawód który będzie się rozwijać.
I będzie się toczyła swoista wojna: My kontra Ono.
Gombrowicz pisał, że każdy ma pupę, gębę, łydkę - personifikując Ono można by spojrzeć w tę gębę i zapytać, czemu tak niesprawiedliwie podchodzi do serwisów i czy kiedykolwiek ma zamiar to usprawnić? I dlaczego taką różną ma twarz dla każdego z Nas.
I na koniec chciałbym objąć Ono, przytulić, pogłaskać, spojrzeć głęboko w oczy i powiedzieć: „jak bardzo Cię nienawidzę, że aż Cię kocham”…
Ewelina Szczecińska (http://artevia.pl)
Właścicielka firmy ARTEVIA. W branży SEO działa od ponad dekady, pokornieznosząc kolejne "wybryki" Google i starając się sprostać wymaganiom tej wyszukiwarki.
Drogi Google, byłabym wdzięczna za bardziej przejrzyste reguły, które od czasu do czasu serwujesz webmasterom. I za trzymanie się tych reguł, które sam, drogi Google, wyznaczasz. Jeśli twierdzisz "takie linki są naturalne", to nie karz w kilka/kilkanaście miesięcy później witryn, do których te naturalne (według Ciebie przecież!) linki prowadziły. Walcz proszę ze spamerami - popieram Cię w tej kwestii w 100 procentach. Ale nie linczuj całej branży SEO tylko dlatego, że przez pracę ludzi z tej branży tracisz na swoich linkach sponsorowanych. Żyj z nami w zgodzie i szanuj nas, a możesz być pewny, że "Białe Kapelusze" odwdzięczą się tym samym. A "Czarne Kapelusze", które kompletnie się z Tobą, drogi Google, nie liczą? Karz wedle własnego uznania. Spraw wreszcie, by wyniki wyszukiwania stały się wolne od spamu i doceniaj tych, którzy swoje witryny oraz witryny swoich Klientów, promują zgodnie z tym, co uznajesz za "poprawne".
Dariusz Jurek (http://dariuszjurek.pl/)
Head of SEO w MS / SMA. Właściciel marki Marketing System i Search Marketing Angels z 11-letnim doświadczeniem w branży digitalowej. „W kilku słowach o sobie, to jestem taki SEO turysta, co ma do fleszu i fejmu dystans”.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym aby...
-Równo traktowało nowe i stare domeny.
-Aby lepiej popracowali nad rozumieniem języka polskiego. Algorytmy teoretycznie odpowiedzialne za poprawne odczytywanie intencji i znaczenia słów (Koliber i Rankbrain) nadal w 100% nie potrafią zinterpretować sensu logicznego polskich tekstów.
-Mniej sceptycznie podchodziło do wiarygodności treści małych witryn i aby w topach wyników wyszukiwania pojawiały się nie tylko duże brandy z danej branży.
-Aby Google bardziej trzymało się swoich wytycznych i oficjalnego przekazu, popularyzowania na rynku. Konkretnie mam na myśli, że Google głosi teorie o ważnej roli kontentu na stronach, a w rzeczywistości wyniki wyszukiwania pokazują zupełnie co innego. W topach widnieją strony ze skopiowanym kontentem bądź takie, które mają go niewystarczająco.
-Weryfikując autorytet domeny, nie bazowało tylko na linkach i kontencie, ale również, aby brało pod uwagę social signals, brand mention, link nofollow etc.
-Wzięło pod uwagę komfort użytkownika i nie serwowało mu tysiąc reklam, które są blokowane przez AdBlocka przez prawie połowę użytkowników Internetu w PL. Witryny (szczególnie serwisy informacyjne) są przeładowane natarczywymi reklamami graficznymi i video, które uniemożliwiają swobodne czytanie tekstu na urządzeniach mobilnych i desktopach.
-Było bardziej wyrozumiałe na problemy techniczne stron www, nie zawsze zależne od deweloperów (wolny serwer, tagi kanoniczne, indeksowanie dynamicznych stron). Są to rzeczy, które rzadko można wprowadzić z uwagi na techniczne ograniczenia korporacyjnych stron. Rozwój Search Console pod tym kątem byłby tu wskazany.
-Chciałbym, aby Google trzymało się faktycznie swoich wytycznych dot. wartościowych linków. Domeny z większym autorytetem mogą sobie pozwolić na znacznie więcej jeżeli chodzi o Spam Linki.
-Aby w większym stopniu brało pod uwagę również ogólny UX strony i elementy behawioralne jako czynniki rankingowe.
-Aby było spójne w przekazie, który puszcza – nadal metody przestarzałe i BHS działają skutecznie (Keyword Stuffing, Cloaking, SWL), pozwalając obsadzać Topy nie tylko lokalnie. Wiele witryn stoi, oparte o te czynniki i są wysoko w rankingu.
Łukasz Suchy (https://www.ideoforce.pl/)
Pasjonat SEO i SEM. Pozycjoner w firmie Ideo Force, redaktor bloga SeoStation od października 2015 r. Inżynier informatyki ze specjalizacją technologie internetowe. W trakcie studiów magisterskich. Prywatnie miłośnik piłki nożnej i wielki gadżeciarz.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym, aby przestało tak mocno forsować wdrażanie AMP i premiować strony oparte o tę technologię w wynikach wyszukiwarki. Każdy, kto tworzy strony, powinien mieć dowolność w wyborze technologii jej optymalizacji pod kątem urządzeń mobilnych. AMP ma swoje zalety, jest m.in. bardzo szybkie i wygodne dla użytkowników mobilnych. Nie widzę jednak powodu, aby strony, które działają w oparciu o RWD czy wersje mobilne swoich serwisów, traciły przez to na widoczności w wynikach wyszukiwania dla urządzeń mobilnych. Bo tylko strony z AMP premiowane są w wyszukiwarce dodatkowym oznaczeniem czy obecnością w slajderach treści AMP. Podobną sytuację mamy obecnie z zabezpieczaniem stron internetowych przez SSL, gdzie Google forsuje wdrożenie HTTPS na prawie każdej stronie w sieci. Sama inicjatywa jest jak najbardziej ok, bo chodzi o szyfrowanie przesyłanych przez nas danych. Tylko że Google i w tym przypadku, nagradza „wdrażających” a karze „ignorujących”. Nie każdy jest programistą, nie każdy poradzi sobie z wdrożeniem AMP, wersji mobilnej czy SSL – a zlecenie tego na zewnątrz wiąże się z kosztami. Tak więc jeśli chcesz prowadzić własną firmę i aktywnie „pozycjonować” się w Internecie, musisz nie tylko być na bieżąco z aktualnościami od Google, ale również dbać o ich wdrożenie na swojej stronie internetowej. Tylko dlaczego? Bo Google tak chce? JTo stawia małe, niezinformatyzowane firmy, z małymi stronami na gorszej pozycji – o ich widoczność i tak ciężko, nie wdrażając kolejnych „udogodnień”, będzie jeszcze ciężej.
Założyciel firmy XANN. Od blisko 10 lat związany z branżą e-commerce. Twórca bardzo popularnego w Polsce systemu wymiany linków e-weblink.com. Współorganizował wiele imprez takich jak Mistrzostwa pozycjonowania stron internetowych, Seoparty czy Spodek 2.0
Gdyby Google chciało mnie wysłuchać grzecznie poprosił bym tylko o jedną rzecz, żeby powróciły czasy gdy mieliśmy możliwość sprawdzania z jakich fraz nas odwiedzają z wyników naturalnych, kiedyś mieliśmy to jak na talerzu, teraz jest to mega okrojone a dane są wręcz szczątkowe, owszem można samemu odgadnąć co kryje się za Not provided ale tracimy cenny czas z powodu takiej pierdoły która w życiu SEOwca jest najważniejsza ;)
Magdalena Bród (https://cluegroup.pl)
Współwłaściciel agencji marketingowej CLUEGROUP z Wrocławia, blogerka finansowa. Finanse i SEO to jej konik, a połączenie tych dwóch aspektów działa najlepiej.
Gdyby Google zechciało mnie wysłuchać, to zapytałabym, dlaczego czasem zamraża SERP-y w najbardziej nieodpowiednim momencie. Dlaczego np. strona widnieje na 1 miejscu na daną, trudną frazę, wprowadzamy w niej zmiany korzystne dla użytkownika i ta spada na pozycję nr 2. Na "jedynkę" wskakuje za to strona, która jest dużo słabsza. I często trzeba czekać do większej aktualizacji algorytmu, by pozycja wróciła. To sprzeczne z ideą bycia frontem do usera. I chciałabym wiedzieć, jak to się wpisuje w ideę aktualizacji algorytmów na bieżąco.
Jakub Makaruk (https://www.forum.optymalizacja.com/)
Jeden z administratorów Forum PiO znany szerzej jako jimmi. Od lat, poza administracją forum, współprowadzi serwis copywriterski.
Gdyby Google zechciało mnie wysłuchać, to powiedziałbym żeby rozwijali dalej politykę nie uwzględniania negatywnych sygnałów offsite do rankingu. Czyli przede wszystkim linków. A także żeby zostawili stare dobre 10 wyników organicznych na stronie.
Łukasz Trześniewski (https://contentsolutions.pl/)
Manager SEO w ContentSolutions. Budowaniem widoczności stron internetowych zajmuje się od 2003 roku. Specjalizuje się w technicznej optymalizacji stron i sklepów internetowych, optymalizacji treści oraz pomocy w ściąganiu kar ręcznych, nakładanych z powodu stosowania technik niezgodnych ze wskazówkami Google dla Webmasterów. W wolnych chwilach prowadzi prywatny blog, na którym dzieli się swoimi przemyśleniami i stara pomóc innym w podniesieniu jakości stron internetowych.
Nieco więcej wsparcia i transparentności. ;) SEO ewoluowało i nie skupia się już tak bardzo na sztucznym podnoszeniu pozycji, lecz na dostosowywaniu się do algorytmów. Te natomiast czasem płatają nam figle, a wskazówki dotyczące rozpoznawania przez nie jakości wciąż są owiane wielką tajemnicą. Brakuje nam narzędzi, które ułatwią zrozumienie tego, jak Google widzi i ocenia daną stronę oraz czy nie tkwimy w miejscu ze względu na aspekty, które nawet nie przyszły nam do głowy. Brakuje nam konkretnych danych, które rzeczywiście odgrywają ważną rolę podczas budowania rankingów, a to, co dostajemy, jest niepotrzebnie ograniczane do zaledwie kilku przykładów. Zatem Google, daj nam nieco więcej informacji o tym, jak oceniana jest przez algorytm strona oraz gdzie popełniamy ewentualne błędy, które wpływają na całą witrynę. I najlepiej aby były one aktualne ;) A tak poza tym, to dzięki za wzrosty :*