Screaming frog - jak korzystać z narzędzia

Zaktualizowano: 2022-10-03
Screaming frog - jak korzystać z narzędzia
Działania SEO wiążą się nierozłącznie z analizami i optymalizacją serwisów internetowych. Czy jest to możliwe, by analizę strony internetowej opierać o zewnętrzną część serwisu i wyklikiwać jej zawartość? W pewnym stopniu - przy serwisie z kilkoma podstronami - jest to jakimś rozwiązaniem, ale nie jest to wydajny sposób na analizę SEO serwisu. W jaki sposób zatem to przyśpieszyć i unormować? Poprzez korzystanie z crawlerów stron www, takich jak Screaming Frog.
Ponad 55100 portali, 11300 influencerów, 980 dziennikarzy. Jedna platforma.
Załóż konto

Czym jest crawler stron www?

Przed opisywaniem funkcji oraz schematu działania Screaming Frog'a - warto wspomnieć w kilku słowach o idei korzystania z crawlerów. Tak jak wcześniej wspominałem, niezbyt optymalnym sposobem na analizę strony jest jej naoczne przeklikiwanie. Oczywiście należy to robić i sprawdzać najbardziej istotne widoki strony internetowej, jednak trzeba pamiętać o tym, że części elementów nie dostrzeżemy w ten sposób i że nie można tylko na tym opierać analizy SEO serwisu.  

Kolejnym ważnym aspektem analiz jest analizowanie proporcji występowania pewnych błędów. Podczas naocznego przeklikiwania serwisu możemy dostrzec nieprawidłowości w budowie serwisu, ale ciężko byłoby ocenić, jak duża to skala i na tej podstawie założyć hipotezę o negatywnym wpływie tego elementu na widoczność serwisu. Crawlery takie jak Screaming Frog nie tylko dokładnie sprawdzają serwis - podstrona po podstronie - ale i tworzą statystyki związane ze stroną.

Jak działa Screaming Frog?

Crawler Screaming Frog jest narzędziem desktopowym - działa poprzez instalację oprogramowania na komputerze. Oprogramowanie korzystając z zasobów naszego komputera oraz dostępu do internetu (z naszego PROXY) - odczytuje kod podstron analizowanego serwisu oraz dokonuje przejść pomiędzy podstronami z użyciem linków <a href>. Crawler SF podczas odczytywania stron i nawigowania po nich działa w sposób analogiczny do crawlerów Google.

Skoro znamy już teorię, to warto wspomnieć o praktycznym korzystaniu z interfejsu crawlera. Zbierania danych można rozpocząć na kilka sposobów.

Screaming Frog Mode

Zazwyczaj korzysta się z 2 trybów - Spider (poruszanie się po stronie robotem internetowym po linkach w analizowanym serwisie) oraz List (poruszanie się tylko i wyłącznie w obrębie adresów wylistowanych). Warto także skorzystać z trybu Compare, który jest przydatny podczas cyklicznych analiz i porównania efektów analiz - tryb szczególnie przydatny przy weryfikowaniu tego, co zmienili klienci po wykonanych audytach SEO.

Interfejs narzędzia Screaming Frog?

Screaming Frog jest narzędziem wyjątkowo popularnym wśród specjalistów SEO. Przetwarza podczas swojej pracy ogromną ilość danych, a wyniki przedstawia w postaci tabel:

Screaming Frog wyniki w postaci tabel

Danych jest wiele, ale są one podzielone na istotne sekcje - takie jak np. Internal, Response Codes czy też Page Titles.

Każda z sekcji posiada dane w postaci tabeli - np.:

Screaming Frog szczegółowe tabele

Zebrane i odseparowane w ten sposób dane - możemy wygodnie wyeksportować do Excela, który jest jednym z ulubionych narzędzi każdego profesjonalnego SEOwca :) 

Oprócz samych danych mamy również informacje o ich ilości i proporcjach - przydatne przy podejmowaniu decyzji o priorytecie wdrożeń oraz podczas ilustrowania skali problemu.

Screaming Frog info o ilości i proporcjach

Screaming Frog wykres kołowy

W przypadku, gdy skala w/w przekierowań w linkowaniu wewnętrznym jest dużo większa, niż tutaj przedstawione 0,89% - w czytelny sposób można przedstawić klientowi potrzebę zajęcia się tym problemem. 

Jakie parametry danych warto analizować?

W przypadku analiz SEO warto zwracać uwagę na elementy wpływające na widoczność i na podstawie swojej wiedzy i doświadczenia - wybrać te, które mają największy wpływ. Każdy z nas może potrzebować odmiennej funkcjonalności tego narzędzia. Do często weryfikowanych elementów strony należą m.in.: 

Tytuły podstron

Screaming Frog tytuły podstron

Dzięki takiej analizie możemy dostrzec ustawiony suffix w meta title oraz zauważyć na podstawie duplikacji tego elementu - te same podstrony, ale pod innymi adresami URL.

Nagłówki Hx

Screaming Frog nagłówki Hx

Możemy dzięki tym danych sprawdzić, jakie są nagłówki H1, H2 oraz czy nie ma problemu z niezagospodarowanymi nagłówkami lub ich duplikacją.

Obecność kodów odpowiedzi innych niż 200

Screaming Frog kody odpowiedzi inne niż 200

W wyświetlanych tu danych widzimy, czy nie ma problemu z linkowaniem do usuniętych zasobów (zwracających kod 404) czy też adresów przekierowywanych na inny URL (zwracających kody 3xx). 

Dyrektywy robots np. NOINDEX

Screaming Frog dyrektywy robots

Analizując dyrektywy robots możemy dostrzec, czy część podstron (albo i całość) nie jest zablokowana przed indeksowaniem. Myślę, że każdy doświadczony SEOwiec przynajmniej raz w życiu zauważył tam obecność tagu NOINDEX, o którym właściciel serwisu nie miał pojęcia. 

Najczęściej występującym powodem tego faktu jest przeprowadzana migracja. Tagiem tym blokujemy przed zaindeksowaniem środowisko testowe nowej strony, a po migracji należy go usunąć. Czasami zdarza się, że nikt nie pamięta o tym fakcie i domena, na której zmieniono stronę - po pewnym czasie - jest usunięta z indeksu Google.

Kiedy Screaming Frog jest przydatny?

Użycie crawlerów przydaje się na wielu etapach działań ze stroną. Najczęściej klienci słyszą o konieczności użycia crawlera podczas rozpoczęcia działań SEO, audytu SEO oraz podczas migracji serwisu. Faktem jest, że są to dość istotne momenty, w których te dane należy dokładnie przeanalizować. Mimo ogromu pseudo audytorów online, które „udają” bycie substytutem szczegółowego audytu SEO - większość klientów rozumie potrzebę skorzystania z crawlera takiego jak Screaming Frog oraz dokładnej analizy tych danych przez doświadczonego specjalistę SEO.

Czy są to jednak jedyne momenty, gdy warto korzystać z tego narzędzia? Absolutnie nie! Podczas wyceny działań SEO w Digone niejednokrotnie wykorzystujemy SF do wstępnej weryfikacji, czy nie ma jakiś ogromnych problemów ze stroną. 

Po pierwsze poprawa ich daje nam szansę na quick wins i przekonania klienta do dalszego inwestowania w SEO. 

Po drugie mamy szansę wykazać, że przykładamy wagę do wycen działań i zwracamy uwagę na dobro klienta. 

Klient, który podczas wyceny działań słyszy, że dostrzegliśmy tag NOINDEX i widzimy, że spowodowało to ogromne spadki widoczności - przekonuje się, że ma do czynienia z profesjonalistami i jest wdzięczny, że już teraz pomagamy ratować widoczność serwisu. Zdarza się również, że to już n-ta wycena i nikt nie zwrócił uwagi, że już teraz strona wymaga pilnej interwencji.

Cykliczne porównywanie danych

Narzędzie Screaming Frog umożliwia nam także porównywanie danych - pomiędzy poszczególnymi crawlami serwisu, obecnym i archiwalnym. 

Screaming Frog cykliczne porównywanie danych

Dlaczego zawsze rekomenduję takie cykliczne crawlowanie serwisu? Strony internetowe - szczególnie duże i sklepy e-commerce - cały czas „żyją” i do tego są cyklicznie rozbudowywane, zmieniane. Zdarza się, że z pozoru niewielka zmiana czy też aktualizacja silnika strony - potrafią wiele namieszać w elementach, które są istotne w SEO.

Wizualizacja danych

Dane z Screaming Frog’a możemy przedstawić nie tylko w formie tabel lub wyeksportowanych XLSów. Część danych można zwizualizować w postaci grafik. 

Oto kilka wizualnych widżetów w Screaming Frog’u:

Screaming Frog chmura słów

Chmura słów użytych w treści danej podstrony.

Screaming Frog graf

Część grafu umiejscowienia podstron w strukturze serwisu.

Podsumowanie

Screaming Frog to jeden z kilku dość popularnych crawlerów SEO. W przypadku niedużych oraz średnich sprawdza się idealnie - do 500 analizowanych zasobów można go używać za darmo, a nawet zakup licencji rocznej nie jest wielkim wydatkiem (na tle kosztów części narzędzie SEO). Na dzień pisania artykułu 1 licencja SF to koszt około 200 dolarów. To właśnie nieduży koszt i czytelność działania powoduje popularność tego narzędzia.

  • Autor: Marek Stokowski

    Senior SEO specjalista w agencji Digone

    www.stokowski.eu

    Na co dzień walczy z budowaniem widoczności zarówno dużych serwisów e-commerce, jak i serwisów usługowych. Uwielbia audyty SEO i analizowanie kodu źródłowego. Po godzinach prowadzi bloga Stokowski.eu oraz wypoczywa, biorąc udział w wyprawach motocyklowych.

Wasze komentarze (0)
Redakcja WhitePress zastrzega sobie prawo usuwania komentarzy obraźliwych dla innych osób, zawierających słowa wulgarne lub nie odnoszących się merytorycznie do tematu obiektu.
Administratorem danych osobowych jest WhitePress sp. z o.o. z siedzibą w Bielsku-Białej, ul. Legionów 26/28, Państwa dane osobowe przetwarzane są w celu marketingowym WhitePress sp. z o.o. oraz podmiotów zainteresowanych marketingiem własnych towarów lub usług. Cel marketingowy partnerów handlowych WhitePress sp. z o.o. obejmuje m.in. informacje handlową o konferencjach i szkoleniach związanych z treściami publikowanymi w zakładce Baza Wiedzy.

Podstawą prawną przetwarzania Państwa danych osobowych jest prawnie uzasadniony cel realizowany przez Administratora oraz jego partnerów (art. 6 ust. 1 lit. f RODO).

Użytkownikom przysługują następujące prawa: prawo żądania dostępu do swoich danych, prawo do ich sprostowania, prawo do usunięcia danych, prawo do ograniczenia przetwarzania oraz prawo do przenoszenia danych. Więcej informacji na temat przetwarzania Państwa danych osobowych, w tym przysługujących Państwu uprawnień, znajdziecie Państwo w naszej Polityce prywatności.
Czytaj całość
  • Nikt jeszcze nie skomentował tego artykułu.
Polecane artykuły
Google Analytics co to jest
Google Analytics dla początkujących

Analiza prowadzonych działań SEO jest niezbędna do weryfikacji ich efektywności. Możemy wykonać ją m.in. za pomocą Google Analytics. Dzięki temu będziemy mogli przeanalizować ruch na naszej stronie pod kątem charakterystyki odbiorców, ich lokalizacji i zachowania na stronie, a także dowiemy się, o co warto zadbać, by strona była bardziej atrakcyjna.