Kolejna burza w wyszukiwarce Google? Nie tym razem i nie dla każdego

Artykuł 18.06.2015
Kolejna burza w wyszukiwarce Google? Nie tym razem i nie dla każdego

Kolejna burza w wyszukiwarce Google? Nie tym razem i nie dla każdego

Każda zmiana w algorytmach wyszukiwarki Google budzi powszechny popłoch wśród właścicieli stron. Nigdy nie jest do końca pewne, czy przypadkiem nie ucierpią prowadzone przez nich serwisy – bezpośrednio lub rykoszetem. Tym razem dramatu jednak nie było. Wręcz przeciwnie.

Od kilkunastu dnia zastanawiało nas mocno, skąd biorą się wzrosty w całej grupie serwisów Spider’s Web. Nie dotyczą one zresztą tylko stron o dużej ilości treści i sporej częstotliwości aktualizacji. Nawet te serwisy, do których rozwoju nie przykładamy aż tak dużej wagi, otrzymały sporego kopa po aktualizacji.

Niewiele natomiast dzieje się w przypadku witryn regionalnych biznesów czy prostych wizytówek małych przedsiębiorstw.

Czego miała dotyczyć aktualizacja? Prawdopodobnie tego, nad czym Google pracuje już od dłuższego czasu. Wyższa jakość tekstów, pomijanie zduplikowanych treści, optymalizacja serwisów od strony technicznej i praktycznej. Co kryje się pod tym ostatnim hasłem? Przede wszystkim prędkość działania strony, przejrzysta nawigacja, łatwość w przemieszczaniu się po stronie oraz wygodna konsumpcja treści.

Jednocześnie jest to jedna z największych wyszukiwarkowych aktualizacji od dłuższego czasu. Ostatnie takie zmiany miały miejsce na początku roku, gdy Google wprowadzał tajemnicze nowości, nie informując przy tym dokładnie… czego tak naprawdę dotyczą. Dla porównania, poprzednia aktualizacja miała miejsce niedługo wcześniej – pod koniec 2014, wiążąc się ze sporymi przetasowaniami w wynikach wyszukiwania.

Nie zmienia to jednak faktu, że nawet i nowe kryteria brzmią dość ogólnie. Można natomiast dziś stwierdzić jedno. Mobilny armagedon, który przewidywano po aktualizacji algorytmów, nie miał miejsca.

Po pierwsze okazało się, że większość serwisów, dla których obecność w Google jest naprawdę ważna, była zawczasu przygotowana do zmian. Po drugie, co jeszcze ciekawsze, wiele wskazuje na to, że gigant z Mountain View sam nie do końca respektuje swoje wytyczne.

Przykładów jest zresztą wiele i można je znaleźć bez trudu. Chociażby wpisując w najpopularniejszą wyszukiwarkę frazę „adwokat katowice”, na czołowych miejscach znajduje się witryna, która nie dość, że w dużym stopniu nie spełnia wytycznych Google, to jeszcze po wejściu na nią otrzymujemy komunikat (od Googla!), że „ta witryna mogła paść ofiarą ataku hakerów”.

Dlaczego więc możemy odnaleźć ją tak wysoko na liście wyników? Można założyć, że Google korzysta ze swojego straszaka (tj. wykluczenia z wyników wyszukiwania w ogóle) tylko w przypadku tych podmiotów, na których może zarobić poprzez odnośniki sponsorowane czy całą sieć reklamową. W przypadku mniejszych serwisów, zanim efekty działania nowego algorytmu staną się widoczne, minie jeszcze prawdopodobnie bardzo dużo czasu.

Musisz przeczytać:

Dołącz do dyskusji

Advertisement