Treści o niskiej jakości: czy Google zaostrza przepisy?
Walka wyszukiwarki z treściami o niskiej jakości zaczęła się w 2011 roku. Wprowadzono wtedy update o nazwie Panda, który obniżał pozycje witrynom zawierającym m.in. niskiej jakości content przesycony frazami kluczowymi, skopiowany z innych serwisów, bądź zwyczajnie zawierających tegoż contentu stanowczo za mało.
Jednak same algorytmy to nie wszystko i Google zatrudnia żywych pracowników zwanych “raterami”, którzy w liczbie ok. 10 tysięcy przeczesują wyniki organiczne, sprawdzając jakość i transparentność stron wyświetlających się w topach na dane frazy. Ci ludzie osobiście nie mają wpływu na pozycje, natomiast przekazywana przez nich wiedza jest bezcenna: na jej podstawie są bowiem aktualizowane algorytmy.
W 2015 roku pojawił się swoisty podręcznik dla “raterów” dotyczący parametrów, na jakie powinni zwracać uwagę. 25 lipca 2018 roku ów podręcznik został zaktualizowany.
Co znajdziemy w wytycznych oceny jakości wyników wyszukiwania?
Dokument zawiera 164 strony szczegółowych instrukcji (zobaczyć dokument możemy tutaj). Czytelnik dowie się z nich, jakie praktyki należy wdrożyć, aby strona www nie otrzymała oceny TREŚĆ NISKIEJ JAKOŚCI.
Są to m.in takie polecenia jak:
- biografie autorów w zakładce O NAS,
- główna treść powinna występować w ilości całkowicie wyczerpującej zainteresowanie użytkownika,
- wysoka jakość merytoryczna i specjalistyczna treści.
Niedopuszczalne są natomiast:
- clickbaitowe tytuły i nagłówki (przesadzone, nastawione na wzbudzenie silnej reakcji emocjonalnej, wprowadzające w błąd co do zawartości strony),
- nachalne reklamy,
- treści nawołujące do przemocy i nienawiści,
- skopiowana zawartość,
- nieodpowiednie grafiki,
- projektowanie witryn tak, by zwiedziony użytkownik kliknął w umieszczony na nich link,
- przeznaczenie strony jest niedookreślone (użytkownik nie wie, po co strona właściwie powstała),
- brak informacji identyfikującej podmiot stojący za oferowanymi na stronie produktami i usługami; wyjątkiem są np. strony z treścią generowaną przez użytkowników, tutaj identyfikacja autora materiału następuje po jego nicku/pseudonimie,
- strony niefunkcjonalne, utrudniające użytkownikom korzystanie z nich, o słabej, źle zaprojektowanej konstrukcji, nie aktualizowane,
- szkodliwe linki na stronie (wirusy, złośliwe oprogramowanie).
Musimy pamiętać, że strona nigdy nie będzie oceniana wysoko jeśli stojący za nią brand/organizacja posiada “złą reputację”, rozumianą jako złe doświadczenie użytkownika, krytyczne sygnały płynące z zewnętrznych, niezależnych źródeł. Takimi sygnałami mogą być wywiady, referencje, rekomendacje ekspertów z dziedziny której poświęcona jest strona, artykuły prasowe, opinie i recenzje użytkowników a nawet posty blogowe i forumowe, artykuły na Wikipedii itd.
Komentarze