Przemysław Śmit / 27.12.2017

Co szykuje się w SEO w 2018 roku?

195 interakcji Przejdź do dyskusji

Mitologia. Tak, to dobre słowo. Przez lata wokół pozycjonowania, optymalizacji i wszystkiego, co związane z obecnością firm i stron w Google, powstało wiele mitów. Gdzie w tym wszystkim leży prawda i czy istnieje święty Graal pozycjonerów?

SEO staje się nudne

By odpowiedzieć na powyższe pytanie, należy zrobić krok wstecz. Cofnijmy się do przełomu roku 2015 i 2016. Większość specjalistów przewidywała wtedy, że najważniejsze będzie dostosowanie stron do urządzeń mobilnych, optymalizacja prędkości działania stron i treści. Właściwie to ten ostatni element miał być najważniejszym czynnikiem rankingowym i tak też się stało.

Dobrze napisana treść i jej prawidłowa optymalizacja wystarczają, by zająć wysokie pozycje w Google na frazy, które są nisko lub średnio konkurencyjne.

Podobnie było w roku 2017. Zmieniają się algorytmy, ale zapowiedzi ekspertów sprawdzają się z roku na rok. Liczy się treść, optymalizacja, szybkość. Wygląda na to, że nic ani nikt nie jest w stanie zaskoczyć branży.

Czy w 2018 roku czeka nas rewolucja SEO? Wiele znaków na niebie i ziemi wskazuje na to, że mimo hucznych zapowiedzi i rozwoju technologii wyszukiwania głosowego, wciąż najważniejsze będzie to, z czym mieliśmy do czynienia dwa czy trzy lata temu.

Wszystko dlatego, że zmieniają się tylko narzędzia

Dwa lata temu miał mieć miejsce mobilegeddon – strony niedostosowane do urządzeń mobilnych miały stracić swoje pozycje w Google, ale… nic takiego nie miało miejsca. Nadal wiele jest stron, które nie mają wersji dostosowanej do mniejszych ekranów, a mimo to zajmują wysokie miejsca w wynikach wyszukiwania.

Wiele było dyskusji i przerzucania się argumentami o wyższości stron responsywnych nad dedykowanymi stronami mobilnymi. Dzisiaj zarówno jedne i drugie mają swoje plusy i minusy, ale każde z nich da się na tyle dobrze dostosować do wytycznych Google, że wybór pomiędzy nimi to dużo bardziej kwestia wyboru biznesowego, aniżeli wybór mniejszego zła.

Kiedyś każda aktualizacja Google była dla branży SEO wyzwaniem

Trzeba było się dostosować. Szukać rozwiązań, które wywindują witryny wyżej w wynikach wyszukiwań. Stosowano różne rozwiązania, które w mniejszy lub większy sposób miały oszukać algorytmy Google’a.

Dziś cieszy fakt, że coraz więcej firm jest świadomych swojej obecności w internecie i wiele z nich zamiast inwestować w szybkie i niepewne rozwiązania, decyduje się na rozwój silnego zaplecza. To przynosi spore korzyści zarówno konsumentom, jak i właścicielom stron internetowych.

Z drugiej strony wiele firm musi borykać się z mitami na temat SEO.

Informacje o tym, jak dbać o swoją stronę internetową, płyną z wielu stron. Załóżmy, że jesteśmy właścicielami bloga czy małej firmy produkcyjnej. Chcemy pozycjonować się na kilka istotnych fraz. W teorii wiemy, czego chcemy i do wyboru mamy ofertę agencji, która daje nam gwarancję pierwszego miejsca w Google. Warto dodać, że firma ta chce rozliczać się za osiągane wyniki.

Czy możemy ufać każdej agencji SEO?

Absolutnie nie. Obecnie nikt nie jest w stanie zagwarantować konkretnej pozycji strony w wynikach wyszukiwania. Nawet osoby, które pracują w Google, nie mogą tego zagwarantować. Pozycja strony w SERP-ach (search engine results page) uzależniona jest od zbyt wielu czynników, aby można było cokolwiek obiecać.

Dobra agencja SEO ma swoje zadania, a najważniejszym z nich jest robienie wszystkiego, by strona lub blog rosły. Systematycznie, dynamicznie, ale bez niespodzianek. Zdrowy wzrost zapytań z Google przekłada się na zdrowy ruch na stronie. Dzięki dobrym praktykom unikniemy też wszelkich kar ze strony Google’a.

Ktoś powiedział kiedyś – wyszukiwanie wygląda tak samo na wszystkich urządzeniach

Nie tak dawno nie do pomyślenia było, by większość treści związanych z internetem konsumować za pośrednictwem smartfonów. Tymczasem dzisiaj, w takim medium jak Spider’s Web, czyli największym blogu w Polsce, aż 60 proc. użytkowników korzysta z urządzeń mobilnych.

Maciek Kurek SEO Project Lead w Catena Media:

Jeszcze kilka lat temu, by sprawdzić jakąś informację, musieliśmy uruchomić komputer, wklepać odpowiednie zapytanie w Google, przejrzeć czasem nawet 20 stron wyników wyszukiwań, by trafić na prawidłową odpowiedź. Dzisiaj w trakcie oglądania Milionerów, w ciągu kilkunastu sekund jesteśmy w stanie zweryfikować prawidłową odpowiedź.

Co istotne, Google coraz mocniej dostosowuje wyniki do naszych preferencji. Co innego obejrzymy w trakcie przeglądania internetu na kanapie (na laptopie i w telefonie), co innego zobaczymy na tablecie w trakcie pracy, a jeszcze zupełnie co innego znajdziemy w trakcie spaceru i poszukiwania miejsca na obiad.

Skąd to wynika? W zależności od potrzeb inaczej korzystamy z internetu. Zadajemy inne pytania wujkowi Google’owi i oczekujemy innych wyników – dodaje Maciek.

 

W wyszukiwaniu informacji istotny jest również kontekst

Wyszukiwanie informacji na różnych urządzeniach to jedno, ale przecież gdy szukamy informacji o np. Magdzie Gessler, to co konkretnie mamy na myśli?

Jedni będą szukać restauracji po rewolucjach Magdy Gessler, inni wiadomości z programów, w których bierze udział, a jeszcze inni odpalą przeglądarkę z myślą o wyszukaniu informacji o samej pani Magdzie.

W zależności od słów kluczowych umieszczonych w zapytaniu otrzymamy inne wyniki wyszukiwań. Co istotne, będą one inne nie tylko pod względem treści. Różnić się będą również wizualnie.

Czy jako twórcy możemy się do tego przygotować? Tak, i tutaj znów na pierwszy plan wysuwa się odpowiednio przygotowana treść. Już teraz teksty „od czapy”, źle zbudowane gramatycznie i zawierające błędy ortograficzne mają negatywny wpływ na SEO. Dlaczego? Ponieważ coraz częściej użytkownicy opuszczają strony, przez których treści nie są w stanie przebrnąć ze względu na jakość tekstu.

Tylko, że jakość tekstu to nie tylko słowa

Równie istotną rolę odgrywają zdjęcia. Nie od dziś wiadomo, że jedno zdjęcie warte jest więcej niż tysiąc słów. Dobry tekst, uzupełniony dobrymi zdjęciami to wartość również dla wyszukiwarki Google, a optymalizacja zdjęć, ich prawidłowe kadrowanie i ulokowanie w tekście zwiększa wartość publikowanych materiałów.

Mobile ma ogromne znaczenie

Google powoli zaczyna przedkładać wartość stron mobilnych nad desktopowe. Już niedługo najważniejsze będzie nie to, jak nasza strona wygląda na ekranie komputera, ale jak prezentuje się na ekranie smartfona.

Ucieszą się szczególnie ci, którzy swoje strony mają już dostosowane dla smartfonów i tabletów, bo wyszukiwarka od początku 2018 roku ma nadać takim stronom priorytet.

Zmienia się też sposób myślenia i projektowania stron. Jeszcze w tym roku najpierw budowało się tradycyjną witrynę, a na samym końcu wersję na komórki. W najbliższym czasie dobrą praktyką będzie budowanie stron pod urządzenia mobilne w pierwszej kolejności.

Mobile jest najważniejszym punktem styku pomiędzy firmami a użytkownikami

Mobile to przyszłość internetu. Już w tym momencie ponad połowa światowego ruchu i wyszukiwań w Google opiera się na telefonach, a w 2018 roku ten wskaźnik na pewno się podniesie.

Jak mówi nam Max Cyrek z Cyrek Digital:

Strony powinny skalować się zgodnie w wymaganiami urządzenia, bo nikt z odwiedzających nie będzie chciał przesuwać paskiem od prawej do lewej i po prostu sięgnie po link konkurencji. Ostatnim elementem tej układanki jest sprawdzenie, czy wszystkie przyciski działają prawidłowo na obydwu wersjach. Niestety czasem jest tak, że nie działa rozwijane menu, a przycisk tylko odświeża zawartość, mimo że strona na urządzeniu mobilnym wygląda całkiem przyzwoicie.

W 2018 roku niefunkcjonalna wersja mobilna przyniesie same porażki

Jakie konkretnie?

Spadek współczynnika klikalności i czasu spędzonego na stronie przez użytkownika. Warto sprawdzić zawczasu swoją stronę. Google oferuje test optymalizacji mobilnej, w którym wystarczy wprowadzić adres strony. Otrzymamy komunikat o naszej witrynie i ewentualne uwagi – dodaje Max.

Jak te wszystkie zmiany wpłyną na SEO sklepów internetowych?

Sklepy internetowe chętnie zaangażowały się w tworzenie treści, zaczęły udostępniać blogi tematyczne, a dzięki temu zauważalnie wzrosło zainteresowanie konkretnymi produktami i usługami.

Agencje zaczęły się specjalizować i rozwijać kompetencje tak, by stosować rozwiązania dopasowane do określonej kategorii biznesowej lub branży. Z drugiej strony, wiele firm (zwłaszcza agencji) przespało 2017 rok.

To był rok, w którym należało rozwijać kompetencje w ramach tworzenia treści. Nie tylko tekstów, ale również grafik, zdjęć, filmów. Czasem wiązało się to z powiększeniem zespołów, a czasem w przeszkoleniu obecnej kadry.

W 2018 roku ci, którzy są w tyle, będą mogli wiele nadrobić. Upływający czas oddala ich co prawda od konkurencji, która już w 2017 roku podjęła odpowiednie działania, ale nic nie stoi na przeszkodzie, by w przyszłym roku nadrobić i powalczyć jak równy z równym.

Na co należy zwrócić uwagę w 2018 roku? Na pewno na RankBrain i content marketing

Słyszałem już opinie o tym, że RankBrain to wymysł, że nie ma wpływu na wyniki wyszukiwań i obecność stron w internecie. Mit.

W 2017 roku okazało się, że RankBrain jest trzecim najważniejszym czynnikiem w budowaniu rankingów i, co ciekawe, algorytm ten osiągnął swój status w zaledwie kilka miesięcy po jego wdrożeniu. W 2018 roku ta sytuacja zmieni się diametralnie – RankBrain wraz z kolejnymi udoskonaleniami stanie się najważniejszym współczynnikiem SEO.

Tylko właściwie co to jest ten RankBrain i co trzeba zrobić, aby go wykorzystać? Nazwijmy go Sztuczną Inteligencją, bo jest to samouczący się algorytm.

Zadaniem RankBrain jest pomoc w sortowaniu wyników wyszukiwania. Swoje badania opiera na wyszukiwanych frazach i wyborach, jakich dokonują użytkownicy. Uczy się, jakie kliknięcia wykonywał odbiorca oraz jak długo przebywał na konkretnym adresie, a następnie odpowiednio zaszeregowuje wybrane strony, aby w pierwszej kolejności pojawiały się te, które zdaniem algorytmu były najważniejsze i najbardziej trafne.

Jak Rank Brain wygląda w praktyce?

O krótkie podsumowanie poprosiłem Damiana Sałkowskiego, który jako zarządzający w Senuto na co dzień spotyka się z takimi pytaniami.

Załóżmy, że chce przygotować dobrego drinka na bazie tego, co mam w domu. Co robię?

Wpisujesz w wyszukiwarkę “drinki z wiśniówką”. Twoją uwagę przyciągnął natychmiast pierwszy link, ale niestety dwa rzuty oka wystarczyły na stwierdzenie, że to, co tam znalazłeś, nie jest dla ciebie. Klikasz w kolejny; tam proponują coś, co spełnia twoje oczekiwania, ale chcesz jeszcze podpatrzeć co piją u konkurencji, więc otwierasz blog o gotowaniu i klapa – sam wymyślisz coś lepszego. Wracasz do boskich napojów z drugiego linka. Pochłaniasz każde słowo, a nawet wybierasz się na wycieczkę do marketu, bo jednak brakuje ci któregoś z produktów.

Co się dzieje w rzeczywistości wirtualnej?

RankBrain wie już wszystko. Pierwsza strona była ok, druga super, trzecia do kitu. Na podstawie czasu przebywania na wybranej przez ciebie opcji i liczby kliknięć innych użytkowników, drinki z drugiego miejsca idą na pierwszą pozycję w Google. Oczywiście to bardzo prosta symulacja, ale doskonale oddaje właściwości tego algorytmu.

RankBrain bardzo uważnie przygląda się Dwell Time’owi, bo jeśli aktywnie działamy w obrębie jakiejś strony, to znaczy, że jej zawartość jest wyjątkowo interesująca. Ponadto, im więcej odbiorców ma podobne zdanie, tym bardziej wynik rankingowy tego adresu podnosi się w wyszukiwarce Google. Aby znaleźć się w czołówce, wystarczy tak naprawdę przyciągnąć uwagę odbiorców na średnio 3-4 minuty oraz zadbać o inne procesy, o czym za chwilę.

Oczywiście kluczowe znaczenie ma tu content marketing – nie kupisz klienta tanim chwytem

Musi być profesjonalnie, czytelnie i ciekawie. Jeśli jego uwaga zatrzyma się na wystarczająco długi czas, uzyskasz znacznie lepsze wyniki. Jeśli natomiast zauważasz, że odbiorcy na twojej stronie spędzają mniej niż minutę, to znaczy, że zła treść, wizualny aspekt witryny lub brak przejrzystości prawdopodobnie pogrążą cię w nadchodzącym roku.

W 2018 roku ten trend zdecydowanie się utrzyma, bo Google wreszcie załapał, że jakość daje zyski wszystkim użytkownikom internetu.

Słowa kluczowe są nadal w cenie, ale logiczna i spójna całość jest w stanie więcej ugrać niż przypadkowe zlepki konkretnych fraz. Dzięki dogłębnemu wyszukiwaniu Google’a i odpowiedniemu rankingowaniu mamy możliwość otrzymać naprawdę wysokie wyniki bez naginania zasad etyki.

Dużo treści + dużo podstron = wyższe pozycje w Google?

Nie do końca. Google zaczął zwracać szczególną uwagę na konkretną kompozycję, więc najchętniej prezentowane przez niego linki prowadzą do zawartości liczącej 2000 słów.

Jest to uzasadnione tym, że statystycznie w takiej objętości najpełniej omówimy poruszany temat. Kolejnym ważnym elementem nadal są linki, a ostatnim słowa kluczowe.

Dobry tekst powinien zawierać słowa kluczowe szczególnie ważne dla potencjalnego czytelnika, a nie te, które uważamy za bardziej korzystne dla biznesu. Dodatkowo im więcej treści na jednej stronie, tym w teorii lepiej dla serwisu.

Więcej tekstów, ale bardziej szczegółowych?

Czy warto omawiać temat szczegółowo, czy może lepiej skupić się na rozbiciu go na kilka innych, ale również obszernie opisujących problem?

Tutaj trzeba zwrócić uwagę na Topical Authority. Zjawisko to zwiększa możliwości słowa kluczowego w obszarze całego serwisu. Bada, jak dużo fraz powiązanych ze sobą semantycznie znajduje się w artykułach i poprawia ich widoczność w sieci.

Jak to wygląda w praktyce? Temat dokładnie wyjaśnia Bartosz Michalak, Marketing Manager z Senuto:

Topical Authority zakłada, że skoro tytuł zawiera słowo kluczowe, to spodziewa się znaleźć w konkretnej publikacji inne z nim związane. Im więcej ich znajdzie, również poza tym artykułem, tym większe prawdopodobieństwo, że uzyskamy wysoki wynik naszego serwisu.

Zobaczmy to na przykładzie. Opracowaliśmy tekst dotyczący Atopowego Zapalenia Skóry i chociaż temat został wyczerpany w 2000 słów, wciąż mamy mniejsze szanse znaleźć się na wysokiej pozycji rankingu niż strona, która oddzielnie opisze każde z zagadnień z nim związane, w tym: objawy, sposoby leczenia, dietę, AZS u dzieci i kobiet w ciąży, najlepsze kosmetyki itp.

Jeżeli chcemy zaistnieć, spróbujmy napisać cały cykl artykułów, a najlepiej zastosujmy linkowania odsyłające do pozostałych treści, bo architektura informacji sprzyja SEO. Google to lubi, a czytelnicy jeszcze bardziej, bo rzadko kto w wyszukiwarkę wpisuje ogólne zagadnienia, natomiast chętniej skupia się na konkretnym problemie: AZS dobra maść, AZS u psa, AZS ostrzejszy stan w ciąży.

Jak zatem tworzyć treści, aby uzyskać w Google wysokie Topical Authority?

Kiedyś w SEO było popularne podejście, że w ramach naszego serwisu powinniśmy mieć jak najwięcej ściśle zoptymalizowanych stron docelowych. Wszystko to opierało się na słowie kluczowym i jego odmianach np. AZS, AZS ciąża, AZS dieta w ciąży, AZS żywienie w ciąży, AZS przepisy dla kobiet w ciąży itp. to dawało 1 Landing Page. I nadal takie rozwiązanie jest skuteczne, ale znacznie lepsze staje się zastosowanie nowego podejścia – dodaje Bartosz.

Google wie, że ważny jest szeroki kontekst, dlatego algorytmy zaczęły w zupełnie inny sposób badać nasze strony. Roboty przeszukują już nie tylko konkretny tekst, ale całą zawartość witryny. W nowym podejściu zastosujmy schemat 1 temat => 1 Landing Page.

Jednym słowem, porównując te dwa sposoby, teraz należałoby napisać obszerny tekst i dedykowany pod niego landing page oraz opisać całe zagadnienie czyli: dieta AZS w ciąży, dieta AZS dla dzieci, przykłady diet dla osób z AZS, przepisy na dania dla osób z AZS itd. – podsumowuje Bartosz Michalak.

Ważny jest także dokładny research słów kluczowych i profesjonalny link building

Organic Click Through Rate (CTR) – współczynnik klikalności, wynika w zasadzie również z samego RankBraina. Dobry CTR to wrota do sukcesu rankingowego, tylko… jak zmusić klienta do tego, by kliknął w link akurat do naszej strony? Liczy się kilka podstawowych technik:

  • tekst oparty o liczby np. 10 sposobów na barszcz czerwony;
  • używanie emotek, które wplecione w tekst, ułatwiają jego odbiór;
  • uzupełnienie treści przez elementy graficzne np. infografiki, quizy, itp.

Szczególną uwagę będzie trzeba zwrócić również na User Experience. Powoli, ale jednak, kończą się czasy, w których strony internetowe z designem rodem z lat 90. będą ulokowane w topach. Liczy się jakość, czytelność, dobry wygląd, konkretna i precyzyjna treść. Liczy się wszystko to, z czego składa się UX.

Wrażenia użytkownika będą i są jednym z najważniejszych czynników rankingów. I nawet jeżeli nasza strona (według nas) będzie najpiękniejsza na świecie, ale użytkownicy nie będą potrafili znaleźć na niej najważniejszych informacji, będziemy musieli zapomnieć o wysokich pozycjach w wynikach wyszukiwania.

Wyszukiwanie obrazem i filmem

Ten trend obserwujemy od kilku lat i wygląda na to, że w końcu w 2018 roku internet zostanie zdobyty przez zdjęcia i filmy.

Już teraz YouTube jest drugą najważniejszą wyszukiwarką na świecie, więc najlepszą inwestycją będzie umieszczanie w treściach przekierowań do naszych filmów w tym serwisie. Jeśli chodzi o wyszukiwanie obrazów, warto zainteresować się chociażby Pinterestem, który posiada jedną z najprężniejszych wyszukiwarek.

Wróćmy jednak do YouTube’a. Zmiana aktywności użytkowników to skok o niemal 60 proc. w stosunku do 2016 roku i to się nie zmieni. YouTube nieustannie notuje wzrost nie tylko oglądanych, ale i dodawanych filmów.

Oczywiście nie wszyscy potencjalni użytkownicy skorzystają z wyszukiwania przez YouTube. Część z nich tradycyjnie wpisze frazę w wyszukiwarkę Google, jednak dobrze przygotowane SEO i tak odeśle ich do kilku najtrafniejszych filmów, bo 55 proc. wszystkich wyszukiwań zawiera przynajmniej jeden film i tysiące zdjęć.

Google miesza wyniki wyszukiwania, więc w proponowanych stronach są zarówno filmy z YouTube’a, jak i blogi, w których treści znajdują się odpowiednie odniesienia do serwisu.

Wyszukiwanie głosowe. Czy to jest przyszłość?

Wyszukiwanie głosowe ma być jednym z zapowiadanych hitów 2018 roku, jednak nie jesteśmy zbytnio przekonani, że będzie miało tak duży wpływ, jak sugerują niektórzy. Na pewno nie w Polsce.

Statystycznie 40 proc. użytkowników sieci przynajmniej raz w ciągu dnia wyszukuje jedną frazę w ten sposób, a sam Google uważa, że jedno na pięć wyszukiwań jest wyszukiwaniem głosowym. Mówimy tu nie tylko o wyszukiwarkach Google’a, ale też różnego typu nawigacjach i aplikacjach obsługiwanych głosowo.

To dużo i faktycznie powoli świat skłania się ku takim rozwiązaniom, ale nie traktowałbym ich priorytetowo w 2018 roku. Nie można jednak zignorować tego, że specjaliści coraz większy nacisk kładą na optymalizowanie właśnie tych procesów.

Aby osiągnąć sukces w tej dziedzinie, należy podnieść swoje znaczenie w sieci do pierwszej strony propozycji Google, a jeszcze lepiej, gdyby treść naszego komunikatu pojawiła się w poleconym fragmencie. Warto w takich wypadkach stosować zapytanie i odpowiedź. Większość głosowych zapytań dotyczy fraz: co to jest, jakie są rodzaje i do czego służy.

Z drugiej strony w Polsce te działania nie mają na chwilę obecną sensu. W naszym kraju Siri, Cortana, Google Now i Amazon Echo działają na pół gwizdka albo wcale, i dopóki to się nie zmieni, optymalizacja pod wyszukiwania głosowe mija się z celem.

Wyszukiwanie lokalne

Tu zmieni się najwięcej. Specyfika działań SEO dla biznesów lokalnych jest wyjątkowa, gdyż wymaga zupełnie innych działań. Istotne jest pozyskiwanie opinii, dbanie o wizerunek, dostarczanie aktualnych informacji o ofercie, zasadach funkcjonowania firmy.

Z ciekawszych nowości na uwagę zasługuje połączenie opinii użytkowników z pozycją firmy w Mapach Google. Użytkownik, dodając opinie o firmie, proszony jest o odpowiedź na kilka związanych z nią pytań. Po co?

Z jednej strony to korzyść dla użytkownika – zdobywa on punkty jako przewodnik Google. Z drugiej strony firma pozyskuje zweryfikowaną opinię i na jej podstawie Google będzie w stanie wyświetlić w wynikach wyszukiwań takie informacje o firmach jak: czy budynek posiada drzwi obrotowe, czy posiada ułatwienia dla osób niepełnosprawnych, czy w siedzibie firmy jest winda, czy klienci/pacjenci mają wydzieloną ubikację, etc.

Po co to wszystko? Jak wyjaśnia Marcin Fige z agencji BinarLink:

Dzięki precyzyjnym informacjom firmy będą mogły pozycjonować się na precyzyjne frazy z długiego ogona. Centrum medyczne z toaletą dla osób niepełnosprawnych? Dla wielu osób jest to zapytanie oderwane od rzeczywistości, ale jeżeli ktoś faktycznie szuka tych informacji? Google wychodzi mu naprzeciw.

Najważniejsze są linki?

W tym aspekcie raczej nigdy nic się nie zmieni, a jeżeli tak, to tylko na lepsze. Google bierze pod uwagę wysoką jakość treści i linkowania, i tylko nimi uzyskasz odpowiednio wysokie miejsce w rankingu.

Nie oszukujmy się, wszystko inne, w tym RankBrain, Voice Search i Dwell Time będzie skutecznie umacniać pozycję w Google, ale nie będziesz jej mieć bez dobrego zaplecza.

Przez zaplecze rozumiem nie tylko ciekawe publikacje, ale również zdjęcia, linki do filmów, linki do innych treści na stronie, interesujące opisy i informacje kontaktowe.

To nadal będzie najważniejszy kierunek dla SEO w 2018 roku. Jeżeli chcecie zyskać, wciśnijcie ze swojego serwisu, ile się da. Nie tylko wizualnie i tekstowo. Zadbajcie o tło, gruntownie je optymalizując. Podstawą będzie tytuł i opisy meta, bo to one w pierwszej kolejności wskazują algorytmowi Google, czego w ogóle dotyczy witryna.

Wbrew temu, co mogliście usłyszeć – optymalizacja tytułów i opisów stron ma ogromne znaczenie

Odpowiednie dostosowanie opisu do użytkownika, czy stosowanie zabiegów polegających na używaniu emotikon w opisach stron znacznie zwiększa CTR z wyników wyszukiwań.

Szansa na to, że użytkownik kliknie w akurat nasz link jest dużo większa, jeżeli przyciągniemy jego uwagę od pierwszego spojrzenia. Dotychczas Google dawało nam możliwość ulokowania tylko 160 znaków w opisie umieszczonym w meta tagach strony.

Od niedawna liczba znaków została zwiększona aż do 230. Jak na tę nowość zareagują eksperci?

Pytanie brzmi, czy Google utrzyma te zmiany na zawsze. Być może, tak czy inaczej już dziś wiadomo, że dostosowanie opisów stron do nowych wytycznych będzie jednym z większych wyzwań optymalizacji stron w 2018 roku. Nikt nie wie, jak dłuższe wpisy wpłyną na zachowanie użytkowników i sam ranking. Istnieje też prawdopodobieństwo, iż Google za kilka miesięcy zrezygnuje z tej opcji – mówi Maciej Kurek.

Na co jeszcze zwrócić uwagę w procesie optymalizacji?

Jak zauważa Max z Cyrek Digital, wszyscy mamy podobne cele. Jakie?

W 2018 roku skupmy się bardziej na kodzie HTML, CSS i JS. Zminifikowany (odchudzony), czyli pozbawiony zbędnych spacji i znaków nowej linii kod HTML wczytuje się nawet 30 proc. szybciej. Tak samo zoptymalizowane pliki arkuszy stylów, jak i te z kodem javascript, pozwolą na szybsze załadowanie się serwisu, co ma bezpośredni wpływ na ranking strony, a także na utrzymanie użytkownika w serwisie – to według Maxa jeden z najważniejszych czynników wpływających na pozycje strony w Google.

Co poza tym?

Upewnijmy się, że serwer na którym hostujemy stronę jest wydajny i nie sprawia problemów przy większym ruchu zwracając błędy 5xx. Przyjrzyjmy się również błędom 404. Informacje o nich znajdziemy w logach serwerowych (access log i error_log) lub w Google Search Console.

Zwrócenie uwagi na ten ostatni aspekt ma znaczenie, gdy do stron, które kiedyś istniały w naszym serwisie, prowadziły wartościowe linki.

Jeśli po jakimś czasie przestaliśmy oferować usługę i usunęliśmy podstronę z nią związaną, to nie zadbawszy uprzednio o prawidłowe przekierowanie, również tracimy cenne punkty w rankingu – dodaje Max.

Analiza to klucz

Dogłębna analiza serwisu, zarówno od strony zachowań użytkownika, jak i robotów Google’a, pozwoli lepiej poznać procesy pozyskiwania ruchu organicznego z wyszukiwarki.

Logi serwerowe (access_log) dostarczają cennych informacji na temat tego, jak często roboty Google’a odwiedzają poszczególne podstrony, a także dlaczego nie radzą sobie z indeksacją serwisu tak, jakbyśmy tego oczekiwali.

Przeanalizowanie tego pozwoli zdiagnozować problemy techniczne zarówno z kodem strony, jak i serwerem. SEO ma bezpośredni wpływ na jakość dostarczanego do serwisu ruchu. Źle dobrana, a co za tym idzie, źle zoptymalizowana strona docelowa może znacząco wpłynąć na współczynnik odrzuceń (liczba osób, które opuszczą stronę zaraz po jej otworzeniu), a to w konsekwencji na liczbę konwersji (np. zakupów produktu czy przesłanych zapytań) w serwisie. – dodaje Max Cyrek.

W końcu HTTPS stanie się ważnym aspektem SEO

Wiele wody w Wiśle przepłynęło, nim Google pokazał światu znaczenie protokołów SSL. Dopiero niedawna aktualizacja przeglądarki Chrome, która informuje użytkowników, o tym, że dana strona nie posiada zainstalowane certyfikatu, sprawiła, że administratorzy masowo rozpoczęli migrację pod HTTPS.

Czy takowa migracja ma znaczenie? Patrząc na wyniki osiągane przez Spider’s Web od czasu wdrożenia SSL, możemy odnieść wrażenie, że tak. Z całą pewnością wpływ na zwiększenie ruchu ma również optymalizacja AMP i coraz lepsze teksty pojawiające się w serwisie. Z drugiej jednak strony, jako agencja mamy pod opieką inne strony i na nich również zauważamy konkretne wzrosty.

AMP – dostosuj się albo zgiń

Dla wydawców AMP jawi się jako wróg publiczny numer jeden. Dla Google’a AMP to mechanizm stworzony i opublikowany w odpowiedzi na zapotrzebowanie wydawców. Jak jest naprawdę?

Tu nie chodzi tylko o wielkie koncerny medialne, które mają Google za złe, że odbiera im kawałek reklamowego tortu. Rzecz tyczy się również tych maluczkich: blogerów, właścicieli stron internetowych, a także sklepów.

Duopol Facebooka i Google’a sprawia, że jesteśmy świadkami walki o dominację. Facebook udostępnia kolejne narzędzia w ramach platformy społecznościowej. Po to, by użytkownik Facebooka nie musiał szukać wiadomości, ogłoszeń, komunikacji czy rozrywki poza serwisem.

Google z kolei chce przywłaszczyć przestrzeń internetową do granic możliwości. Dąży do tego, by zawładnąć treściami na własny użytek.

Dostosowanie stron do protokołu AMP w 2018 roku będzie jednym z kluczowych zadań, bo jak dostosować się do zunifikowanych standardów, nie tracąc przy tym indywidualnego charakteru?

Dla wielu firm będzie to działanie dwutorowe i szukanie kolejnych kanałów dotarcia do potencjalnych użytkowników, czytelników czy klientów.

Zmiany w algorytmie Google – jak jest z tą mitologią?

Przewidzenie pozycji strony i jej utrzymanie stają się trudniejsze. Obecnie dwie osoby znajdujące się w różnych lokalizacjach w Polsce dla fraz generycznych, takich jak np. “opony”, będą miały inne wyniki wyszukiwania i to nie ze względu na historię wyszukiwań. A to z pewnością utrudnia monitorowanie pozycji.

Dużą rolę odgrywa tutaj lokalizacja użytkownika. I dokładnie to powinno mieć bezpośredni wpływ na całą branżę SEO – zarówno na klientów, jak i firm zajmujących się pozycjonowaniem.

Sposób rozliczania pomiędzy agencjami a ich klientami, uzależniony od pozycji strony w wynikach wyszukiwania, powinien ostatecznie i definitywnie odejść do lamusa – czyli tam, gdzie jego miejsce.

Podstawą oceny efektywności działań SEO powinien być wzrost ruchu organicznego, zarówno w odniesieniu do okresu poprzedzającego rozpoczęcie działań, jak i analogicznego okresu np. w roku poprzedzającym.

SEO w najbliższym roku przestanie być magiczną krainą, w której krasnoludki na zlecenie agencji SEO wykonują czarną robotą i po kryjomu, wręczając łapówki pod stołem dogadują się z robotami Google’a co do tego, kto i na jak długo będzie zgarniał największą część tortu (czytaj: ruchu z ruchu organicznego).

 

Autorem tekstu jest Przemysław Śmit. Ekspert w dziedzinie SEO i content marketingu. Jeżeli potrzebujesz wsparcia w tym zakresie. Pisz śmiało, wejdź na stronę agencji odpowiadającej za rozwój grupy Spider’s Web lub dzwoń i zapytaj. Pomożemy zrealizować ci twój projekt 😉

Advertisement