Google wprowadza nowe narzędzie do mierzenia wydajności stron
Google nie lubi mówić o szczegółach działania swoich algorytmów, ale często wychodzi z inicjatywą, aby pomóc właścicielom stron internetowych w polepszeniu user experience swoich witryn.
Google nie lubi mówić o szczegółach działania swoich algorytmów, ale często wychodzi z inicjatywą, aby pomóc właścicielom stron internetowych w polepszeniu user experience swoich witryn.
Na początku tego miesiąca na forum WebmasterWorld rozpoczęła się dyskusja odnośnie do tego, czy w okolicach Halloween, czyli 31 października, nie miała miejsce większa aktualizacja algorytmu Google. Członkowie forum zaczęli zwracać uwagę na zmiany, jakie dostrzegali w pozycjach swoich stron. Również inne osoby z branży SEO zaczęły wysuwać różne skargi. Niektóre z nich wrzucano nawet
Niekiedy zadajemy sobie pytanie, czy na swojej witrynie powinniśmy zachować jedną, długą i treściwą stronę, czy może lepszym wyjściem byłoby pięć mniejszych stron o tej samej tematyce.
John Mueller zaoferował ciekawe wyjaśnienie tego, w jaki sposób przekierowania 301 przekazują PageRank. Już od 2016 roku było wiadome, że w wyniku przekierowań 301, 302 czy innych 30x nie dochodzi do osłabienia jakości linku.
Google oraz YouTube dalej prą naprzód, pomnażając zyski generowane przez reklamy wyświetlane na telewizorach. Nie ma w tym nic dziwnego – w końcu streaming filmów, seriali i innych materiałów video stał się poważną konkurencją dla tradycyjnej telewizji.
Każdego roku Google zmienia swoje algorytmy 500-600 razy. Choć większość z tych zmian należy do tych pomniejszych, to od czasu do czasu pojawiają się „główne” aktualizacje (takie jak Google Panda oraz Google Penguin), które wpływają na świat SEO w znaczący sposób. Właśnie z tego względu warto „u źródła” dowiedzieć się, jakie zmiany ostatnio zachodzą, jakie
W marcu tego roku Facebook znalazł się w ogniu krytyki, gdy okazało się, że niezbyt dobrze radzi sobie z przechowywaniem danych swoich użytkowników. Kwestię czasu stanowiło to, kiedy inni giganci zaczną doświadczać podobnych problemów. Jak się okazało, nie ominęło to nawet Google. W zeszły poniedziałek okazało się, że bug w API Google+ doprowadził do wycieku
Podczas webinaru, który można obejrzeć na Youtubie John Mueller (analityk trendów oraz doradca w Google) wypowiedział się, czy warto pozbywać się treści, które przynoszą mały ruch. Sam temat związany jest z tak zwaną kanibalizacją słów kluczowych/treści. John Mueller podczas dyskusji zwrócił uwagę na kilka rzeczy. Przedstawił przy tym dwa rozwiązania. Czy pozbywanie się treści jest
Pozycjonerzy zawsze proponują klientom pozycjonowanie na liczne odmiany fraz kluczowych: liczba pojedyncza, mnoga, synonimy. Często jednak dzieje się tak, że to, co rankuje w liczbie mnogiej, w pojedynczej jest poza top 100. Dlaczego? Słabe linki, za mało contentu?
Właśnie oficjalnie wystartował projekt e-PR.pl. Zapraszam do krótkiego wpisu z opisem nowego projektu MAYKO.
Walka wyszukiwarki z treściami o niskiej jakości zaczęła się w 2011 roku. Wprowadzono wtedy update o nazwie Panda, który obniżał pozycje witrynom zawierającym m.in. niskiej jakości content przesycony frazami kluczowymi, skopiowany z innych serwisów, bądź zwyczajnie zawierających tegoż contentu stanowczo za mało.
Zapowiadana na początku roku aktualizacja algorytmu Google dotycząca prędkości ładowania stron w końcu ruszyła. Czym właściwie jest Speed Update i co to dla nas oznacza?