Treści o niskiej jakości czy Google zaostrza przepisy

Treści o niskiej jakości: czy Google zaostrza przepisy?

Walka wyszukiwarki z treściami o niskiej jakości zaczęła się w 2011 roku. Wprowadzono wtedy update o nazwie Panda, który obniżał pozycje witrynom zawierającym m.in. niskiej jakości content przesycony frazami kluczowymi, skopiowany z innych serwisów, bądź zwyczajnie zawierających tegoż contentu stanowczo za mało.

Jednak same algorytmy to nie wszystko i Google zatrudnia żywych pracowników zwanych “raterami”, którzy w liczbie ok. 10 tysięcy przeczesują wyniki organiczne, sprawdzając jakość i transparentność stron wyświetlających się w topach na dane frazy. Ci ludzie osobiście nie mają wpływu na pozycje, natomiast przekazywana przez nich wiedza jest bezcenna: na jej podstawie są bowiem aktualizowane algorytmy.

W 2015 roku pojawił się swoisty podręcznik dla “raterów” dotyczący parametrów, na jakie powinni zwracać uwagę. 25 lipca 2018 roku ów podręcznik został zaktualizowany.

Co znajdziemy w wytycznych oceny jakości wyników wyszukiwania?

Dokument zawiera 164 strony szczegółowych instrukcji (zobaczyć dokument możemy tutaj). Czytelnik dowie się z nich, jakie praktyki należy wdrożyć, aby strona www nie otrzymała oceny TREŚĆ NISKIEJ JAKOŚCI.

Są to m.in takie polecenia jak:

  • biografie autorów w zakładce O NAS,
  • główna treść powinna występować w ilości całkowicie wyczerpującej zainteresowanie użytkownika,
  • wysoka jakość merytoryczna i specjalistyczna treści.

Niedopuszczalne są natomiast:

  • clickbaitowe tytuły i nagłówki (przesadzone, nastawione na wzbudzenie silnej reakcji emocjonalnej, wprowadzające w błąd co do zawartości strony),
  • nachalne reklamy,
  • treści nawołujące do przemocy i nienawiści,
  • skopiowana zawartość,
  • nieodpowiednie grafiki,
  • projektowanie witryn tak, by zwiedziony użytkownik kliknął w umieszczony na nich link,
  • przeznaczenie strony jest niedookreślone (użytkownik nie wie, po co strona właściwie powstała),
  • brak informacji identyfikującej podmiot stojący za oferowanymi na stronie produktami i usługami; wyjątkiem są np. strony z treścią generowaną przez użytkowników, tutaj identyfikacja autora materiału następuje po jego nicku/pseudonimie,
  • strony niefunkcjonalne, utrudniające użytkownikom korzystanie z nich, o słabej, źle zaprojektowanej konstrukcji, nie aktualizowane,
  • szkodliwe linki na stronie (wirusy, złośliwe oprogramowanie).

Musimy pamiętać, że strona nigdy nie będzie oceniana wysoko jeśli stojący za nią brand/organizacja posiada “złą reputację”, rozumianą jako złe doświadczenie użytkownika, krytyczne sygnały płynące z zewnętrznych, niezależnych źródeł. Takimi sygnałami mogą być wywiady, referencje, rekomendacje ekspertów z dziedziny której poświęcona jest strona, artykuły prasowe, opinie i recenzje użytkowników a nawet posty blogowe i forumowe, artykuły na Wikipedii itd.

Autor artykułu:Jakub Olszewski

Specjalista SEO w firmie Mayko. Posiada duże doświadczenie przy prowadzaniu kampanii SEO. Bakcyla złapał gdy uświadomił sobie jak wielki wpływ na marketing ma pozycjonowanie. Lubi patrzeć na rosnące dzięki pozycjonowaniu pozycje klientów.

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *