Treści na stronę w modelu data-driven

Na wstępie chciałbym bardzo gorąco podziękować Arturowi za możliwość publikacji artykułu w tak prestiżowym miejscu. Swoją przygodę z SEO zacząłem stosunkowo niedawno, bo w 2014 roku. Dzięki świetnemu nauczycielowi Sławkowi Czajkowskiemu, mogłem szybko pozyskać wiedzę, która pozwoliła na skuteczne działania. To właśnie w KampanieSEO narodził się pomysł stworzenia narzędzia, które pozwoliłoby zautomatyzować naszą metodologię i tak z wewnętrznego narzędzia Surfer przerodził się w samodzielny startup.


Przygotowując treści na stronę internetową staramy się, aby w przejrzysty sposób opisywały naszą ofertę, zachęcały do zakupu lub budowały zaufanie odwiedzających. Konwersja użytkownika w klienta jest domeną zarówno atrakcyjnej oferty jak i formy jej przedstawienia. Jak zwiększyć ilość użytkowników trafiających na stronę bez konieczności zatrudniania agencji SEO do optymalizacji treści? Spieszę z odpowiedzią! Zacznę od wyjaśnienia – model data-driven to wykorzystanie danych o konkurencji w optymalizacji treści. Zamieniamy przeczucie i dobre praktyki na konkretne dane.


Jak pozyskać dane o konkurencji?

Nie trzeba używać wyrafinowanych narzędzi, aby dowiedzieć się jakie treści są premiowane w przypadku konkretnego zapytania. Analiza kodu źródłowego stron konkurencji z pierwszej strony wyników wyszukiwania pozwoli nawet przy użyciu arkusza kalkulacyjnego określić wartości zagęszczenia słów kluczowych, średniej długości treści czy rozmieszczenia fraz w poszczególnych elementach – nagłówkach, paragrafach, altach.

Sumienne podejście do analizy pozwala osiągnąć spektakularne efekty. Wykres poniżej przedstawia efekty pracy nad jedną z fraz klienta, które prowadziła osoba o 3 miesięcznym stażu pracy.

Wdrożenie optymalizacji oparten o analizę konkurencji SeoStation Wdrożenie optymalizacji oparten o analizę konkurencji SeoStation

Jakie dane zbierać, aby być skutecznym?

Agencje i freelancerzy mają swoje wytyczne, które stworzyli w trakcie pracy z wieloma klientami, dlatego wiedza na temat czynników, na które trzeba zwracać uwagę jest bardzo cenna. W sieci jest sporo informacji o podstawowych elementach jak opisy meta, nagłówki czy użycie słowa kluczowego w treści, jednak niewiele osób zdaje sobie sprawę z tego, że wytyczne pod każde z zapytań powinny być przygotowywane w oparciu o analizę konkretnego SERPa, a nie powszechnie przyjęte dobre praktyki.

Optymalizacja a lokalizacja

Po przeanalizowaniu wykresów poniżej jasnym staje się fakt, że warto do analizy podchodzić na tyle dokładnie na ile to możliwe. W przykładzie użyto konkurencyjnego anglojęzycznego słowa kluczowego – software house.

Różnice między poszczególnymi krajami w ilości słów i zagęszczenia słów kluczowych w body dla tego samego zapytania (średnie z top10) Różnice między poszczególnymi krajami w ilości słów i zagęszczenia słów kluczowych w body dla tego samego zapytania (średnie z top10)

Dane zebrane dla całego kraju nie sprawdzą się przy optymalizacji pod konkretne miasto. Patrząc na wykres poniżej widzimy, że działając ogólnie nasza strona byłaby przespamowana lub niedooptymalizowana w zależności od lokalizacji.

Średnia ilość słów kluczowych (top10)Średnia ilość słów kluczowych na top10

Stosując keyword density na poziomie średniej z top 10 dla Wrocławia nie bylibyśmy w stanie uzyskać wysokich pozycji dla Warszawy, dlatego tak ważne są dane pozyskane z interesującej nas lokalizacji.

Średnie zagęszczenie słów kluczowych w dopasowaniu ścisłym dla lokalizacji Warszawa. Na osi X widzimy pozycje, na Y wartość czynnikaŚrednie zagęszczenie słów kluczowych w dopasowaniu ścisłym dla lokalizacji Warszawa. Na osi X widzimy pozycje, na Y wartość czynnika.

Dlaczego skuteczna optymalizacja jest droga?

Ręczne przeanalizowanie tak dużej liczby stron jest niesamowicie czasochłonne, dlatego często spotykanym podejściem jest optymalizacja na wyczucie. Stosowanie powszechnie przyjętych dobrych praktyk pozwala na osiągnięcie poprawnej indeksacji i załapania tematyki przez Google jednak stosunkowo rzadko wyciąga 100% z treści.

Sprawdź swoją stronę

Chciałbyś dostać dane o konkurencji w 45 sekund? Teraz możesz wykonać analizę zupełnie za darmo przy użyciu narzędzia o nazwie Surfer, z którego pochodzą wykresy powyżej. Za 5 minut możesz mieć dane o Twoich konkurentach na najważniejsze słowa kluczowe.

Średnie zagęszczenie słów kluczowych w dopasowaniu ścisłym dla lokalizacji Warszawa. Na osi X widzimy pozycje, na Y wartość czynnikaWejdź na stronę surferseo.com i załóż konto

Średnie zagęszczenie słów kluczowych w dopasowaniu ścisłym dla lokalizacji Warszawa. Na osi X widzimy pozycje, na Y wartość czynnikaPodaj słowo kluczowe oraz lokalizację

Po zarejestrowaniu możesz skorzystać z pięciu darmowych zapytań. Podaj słowo kluczowe oraz lokalizację. Po kilkudziesięciu sekundach analiza będzie gotowa.
Wynikiem analizy jest zestaw danych, na które składa się posegregowana treść w oparciu o kod źródłowy stron z top 50 dla wybranego zapytania. Dzięki niemu możesz prześledzić content, który osiąga wysokie pozycje.

Przykładowe wnioski z analizy

Po zestawieniu wykresów ilości słów w treści oraz zagęszczenia, jasnym staje się fakt, że Google w przypadku tego zapytania promuje witryny, które mają sporo treści i nie są przeładowane słowami kluczowymi.

Ilość słów w body dla zapytania optymalizacja stron www ma spore znaczenieIlość słów w body dla zapytania optymalizacja stron www ma spore znaczenie

Zagęszczenie słów kluczowych w body - strony z wysokim density zostały ukarane. W przypadku top 10 exact pojawia się rzadziej niż raz na 1000 słów.Zagęszczenie słów kluczowych w body – strony z wysokim density zostały ukarane. W przypadku top 10 exact pojawia się rzadziej niż raz na 1000 słów.

Analiza porównawcza

Wyświetl poziom czynnika dla dowolnego adresu url i sprawdź czy Twój content jest dobrze zoptymalizowany.>Wyraźnie widać, że wybrana do porównania strona ma zdecydowanie zbyt wysokie zagęszczenie słów kluczowych w dopasowaniu przybliżonym, jest to jedna z przyczyn jej niskiej pozycji (4 dziesiątka).
Im bardziej precyzyjnie wykonamy analizę, tym lepiej. Przykłady powyżej dotyczą treści wewnętrznej – warto przeanalizować każdy element z osobna – paragrafy, nagłówki, opisy meta czy alty.

Klikając na ikonę wykresu przy adresie url wyświetlisz wartości na wykresieKlikając na ikonę wykresu przy adresie url wyświetlisz wartości na wykresie.

Czerwona linia ukazuje poziom czynnika na wybranej stronie Czerwona linia ukazuje poziom czynnika na wybranej stronie.

Czas zaoszczędzony na zbieraniu danych możemy poświęć na szczegółową analizę.

Efekty optymalizacji

Doprowadzenie do stanu, w którym content na stronie odpowiada pod względem długości, zagęszczeniu i strukturze średniej z top 10 daje efekty przedstawione na wykresach poniżej. Praca została wykonana na domenie z kilkuletnią historią bez większych sukcesów w SERP. Zadania wykonywała osoba z 3 miesięcznym stażem. Dzięki narzędziu skuteczność i świadomość działania osoby wykonującej optymalizację znacznie wzrosła.

Efekty optymalizacjiEfekty optymalizacji.

Takich efektów nie powstydziłby się niejeden doświadczony SEOwiec. Dzięki dokładnie wykonanej pracy w oparciu o realne dane można niewielkim nakładem czasu znacząco podnieść pozycje w rankingu bez wydawania środków na konsultacje czy linki. Jeśli zaciekawił Cię temat optymalizacji przy pomocy Surfera – napisz do mnie na michal@surferseo.com lub odwiedź mój profil Linkedin – https://www.linkedin.com/in/michal-suski/.


Michał Suski zdobył uznanie polskiej sceny SEO. Jak widzisz, jego materiał jest ciekawy i wartościowy. Jeśli chcesz opublikować gościnnie swój wpis na blogu jednej z największych firm hostingowych w Polsce – zapraszam do kontaktu. Artur Pajkert, a.pajkert@h88.pl. Podziel się linkiem do wpisu, skomentuj, daj znać, że znalazłeś w nim coś ciekawego!


Jak oszczędzić 50% na domenie?

DOMBLO2018

Podaj ten kod zamawiając nową domenę, a jej rejestracja będzie tańsza o 50%.

Dobre? To podziel się!Share on FacebookTweet about this on TwitterShare on LinkedInShare on Google+Buffer this page