Przegląd narzędzi wspomagających wykonywanie audytów SEO

narzędzia do audytów SEO
Poprawna optymalizacja techniczna strony internetowej to drugi, tuż po linkach, składnik sukcesu w SEO. Optymalizowanie witryny pod kątem SEO powinno mieć miejsce już na etapie jej projektowania, jednak taka sytuacja to raczej rzadkość. Stąd też duża popularność usług audytów SEO w naszej branży. Z pomocą kilku narzędzi i podstawową wiedzą często jesteśmy w stanie samodzielnie zdiagnozować słabe strony naszej witryny i dokonać podstawowej optymalizacji pod kątem SEO.
Ponad 3800 portali, 1800 influencerów, 60 dziennikarzy. Jedna platforma.
Załóż konto

SEO to bardzo szeroki wachlarz działań dotyczących naszej strony internetowej. Szczególnie w ostatnim okresie czasu optymalizacja i struktury treści strony internetowej mają bardzo duże znaczenie. Na naszych stronach poruszaliśmy już kilka kluczowych działań.

Polecamy artykuły:

Podstawowe zasady optymalizacji SEO

Oto podstawowe zasady, którymi powinniśmy się kierować przy optymalizacji stron WWW (przedstawione w formie infografiki i jej szczegółowego omówienia poniżej):

infografika o podstawowych zasadach optymalizacji SEO

1. Odpowiednio zoptymalizowane meta-tagi

Są to podstawowe meta-dane opisujące zawartość konkretnych stron, od których warto zacząć optymalizację. Większość systemów CMS umożliwia dowolne ustawienie tych parametrów.

  • Title - podstawowy i najprostszy do ustawienia element przy optymalizacji strony, powinien być unikalny w obrębie witryny, mieć maksymalnie około 60 znaków i dobrze jeżeli będzie zawierał słowo kluczowe, które przypisaliśmy do danej podstrony.
     
  • Description - co prawda oficjalnie nie jest to czynnik wpływający na wyniki wyszukiwania, jednak warto pamiętać, że tekst meta description jest widoczny w wynikach pod adresem naszej strony (w większości przypadków), warto więc go uzupełnić w sposób, który może zachęcić użytkownika do wejścia na naszą stronę.

2. Nagłówki H

To element kodu strony, który ma na celu wskazanie odpowiedniej struktury i hierarchii treści na stronie. Struktura nagłówków powinna przypominać książkowy oraz prasowy układ tytułów i śródtytułów.

  • Nagłówek H1 - powinien być tylko jeden, najlepiej tekstowy, wskazuje na najważniejszą treść na stronie.
  • Nagłówki H2 - może być ich kilka, powinny występować po nagłówku H1.
  • Nagłówki H3-H6 - analogicznie j.w.

3. Tekst na stronie

  • Stosunek tekstu do kodu - nie ma jednej złotej liczby, określającej jaki % kodu strony powinien stanowić tekst, dobrym rozwiązaniem będzie jeżeli tekst będzie stanowić co najmniej kilkanaście % całego kodu strony.
     
  • Umieszczenie słów kluczowych - podstawowym sygnałem dla wyszukiwarki, że dana strona jest powiązana z konkretnym słowem kluczowym jest obecność w tekście słów kluczowych, w związku z tym dobrze jest użyć je w tekście (w naturalny sposób).

4. Adresy URL

  • Długość - nie powinny być zbyt długie, w przeciwnym wypadku może się pojawić problem z ich indeksacją, rozsądną liczbą będzie 120 znaków długości.

  • Forma - najlepszą formą są opisowe adresy URL - takie, dzięki którym użytkownik jeszcze przed kliknięciem linka będzie wiedział, co zawiera strona.

  • Dynamicznie generowanie - adresy URL z parametrami generowane podczas sortowania, wyszukiwania i filtrowania często powodują duplikację treści.

5. Dyrektywy dla robotów

  • Robots.txt - pozwala między innymi na ograniczenie dostępu robotów do niektórych części strony.
  • Meta robots - umożliwia wyłączenie niektórych stron z indeksacji, wskazuje za linkami na jakich stronach robot nie powinien podążać, powinniśmy skorzystać z tego meta-tagu, jeżeli nie chcemy indeksować wybranych podstron serwisu.
  • Sitemap.xml - mapa adresów na stronie, ułatwiająca indeksowanie przez roboty Google.

6. Linkowanie wewnętrzne

  • Odpowiednia ilość linków wewnętrznych - im więcej linków tym mniejsza będzie moc (link-juice) przekazywana poszczególnym stronom. Do niedawna oficjalne zalecenie Google mówiło o maksimum 100 linkach wychodzących, jednak podczas jednego z Hangoutów stwierdzenie to zostało odwołane.
  • Linki w formie anchorów tekstowych - najlepsza praktyka, pozwala na lepsze zrozumienie treści na stronie zarówno użytkownikom, jak i robotom wyszukiwarek.

7. Obrazy

Używając grafik w witrynie, powinniśmy zadbać o opisy alternatywne zdjęć, wykorzystywane zamiast grafik (roboty Google nie czytają obrazów, a właśnie opisy alternatywne).

8. Szybkość ładowania strony

Bardzo długi czas ładowania strony może źle wpływać zarówno na odczucia użytkowników, jak i na szybkość indeksacji. W skrajnych przypadkach (bardzo długi czas ładowania strony) może to wpływać negatywnie na pozycje.

9. Dane strukturalne

Opisy rozszerzone pozwalają na lepsze semantyczne zrozumienie strony przez wyszukiwarkę oraz uatrakcyjniają prezentację strony w wynikach wyszukiwania.

10. Architektura informacji

Serwisy internetowe nie powinny mieć zbyt wielu poziomów w strukturze, optymalne rozwiązanie to dostęp do każdej podstrony za pomocą 3 kliknięć.

11. Unikalność treści

Treści skopiowane z innych źródeł są mniej wartościowe i negatywnie wpływają na widoczność w wynikach wyszukiwania. Negatywny wpływ na pozycje oraz indeksację może mieć również powielanie tych samych treści w obrębie jednej witryny.
 

Wtyczki do przeglądarek pomocne przy audycie SEO

Najszybszego i najprostszego przeglądu witryny pod kątem SEO dokonamy za pomocą wtyczek do przeglądarki. Dzięki jednemu kliknięciu uzyskujemy informacje o istotnych dla SEO parametrach strony, na której aktualnie przebywamy. Poniżej opis najpopularniejszych wtyczek.
 

SEO Optimer

analiza seo - seoptimer

Możliwości:

  • generowanie podsumowania z listą sugerowanych zmian do wprowadzenia w witrynie
  • pobieranie informacji o meta-tagach (title, description, meta-robots, keywords)
  • pobieranie informacji o tekście (ilość słów, stosunek tekstu do kodu)
  • pobieranie informacji o nagłówkach H (ilość, treść)
  • pobieranie informacji o plikach robots.txt i sitemap.xml
  • generowanie listy grafik bez opisów alternatywnych
  • generowanie listy linków wychodzących z danej strony, z podziałem na zewnętrzne i wewnętrzne
  • informacje o sygnałach social media (like, +1, tweety)
  • wyświetlanie nagłówka HTTP zwracanego przez stronę
  • wyświetlanie informacji o serwerze
  • możliwość wygenerowania raportu PDF

Strona WWW:

http://www.seoptimer.com/
 

SEO Quake

Możliwości:

  • wyświetlanie wskazówek odnośnie poprawnej optymalizacji poszczególnych elementów serwisu
  • pobieranie informacji o meta-tagach (title, description, keywords)
  • pobieranie informacji o nagłówkach H (ilość, treść)
  • informacje o stosunku ilości tekstu do kodu HTML
  • analizowanie strony pod kątem obecności ramek i kodu Flash
  • pobieranie informacji o plikach robots.txt i sitemap.xml
  • pobieranie informacji o mikroformatach
  • pobieranie informacji o serwerze
  • pobieranie informacji o występowaniu i gęstości poszczególnych słów kluczowych i kombinacjach słów kluczowych

Strona WWW:

http://www.seoquake.com/
 

Oprogramowanie wspomagające audyt SEO

Do dokładniejszej analizy całej strony i przeprowadzenia kompleksowego audytu SEO konieczne będzie wykorzystanie specjalnych programów. Poniżej opis 3 z nich:
 

ScreamingFrog

audyt seo - screaming frog

Program desktopowy, napisany w języku Java, pozwalający na przeskanowanie strony WWW pod kątem czynników ważnych dla SEO. Narzędzie dedykowane i stworzone z myślą o specjalistach SEO. Bardzo dobre narzędzie do przeprowadzenia szybkiego audytu głównie małych i średnich stron WWW. Często pojawiają się nowe aktualizacje, odpowiadające nowym wytycznym optymalizacji stron dla wyszukiwarek.

Możliwości:

  • pobieranie statusów HTTP podstron
  • pobieranie meta-tagów podstron (title, description, keywords)
  • pobieranie nagłówków H na podstronach
  • pobieranie informacji o głębokości” w strukturze strony konkretnych podstron
  • pobieranie informacji o obrazach na stronie (rozmiar, opis alternatywny)
  • pobieranie informacji o linkach wychodzących i przychodzących do każdej strony
  • pobieranie informacji o dyrektywach dla robotów znajdujących się na każdej stronie (noindex, cannonical)
  • możliwość automatycznego eksportu stron wymagających poprawy (np. ze zduplikowanymi tagami title, kilkoma nagłówkami H1)
  • skanowanie stron wg własnych filtrów (np. pod kątem obecności kodu Google Analytics lubi innych skryptów)
  • możliwość pobierania strony z ustawionym różnym parametrem User-Agent
  • możliwość zidentyfikowania zduplikowanych podstron
  • możliwość wygenerowania sitemapy XML
  • pobieranie szczegółowych informacji o danej podstronie (Google Cache, linki w MajesticSEO, walidacja W3C) jednym kliknięciem
  • możliwość wykluczenia katalogów ze skanowania
  • możliwość przeskanowania tylko określonej listy adresów
  • duże możliwości eksportu danych

Plusy:

  • częste aktualizacje
  • przyjazny interfejs
  • możliwość szybkiego wyeksportowania stron wymagających poprawy pod względem SEO

Minusy:

Podsumowanie:

Program pobiera dość dużo parametrów strony oraz ma wiele opcji eksportu i filtrowania danych, będzie więc idealną pomocą przy wykonywaniu audytu SEO, dopóki strona nie ma kilkuset tysięcy podstron.

Strona WWW:

http://www.screamingfrog.co.uk/seo-spider/

Cena:

  • Darmowa wersja - ograniczenie do 500 stron, brak możliwości tworzenia własnych filtrów
  • 99 funtów (+VAT) / rok - brak limitów
     

Xenu Link Sleuth

audyt strony www - XENU

Narzędzie desktopowe napisane w języku C++, głównym założeniem autorów było stworzenie narzędzia do sprawdzania nieaktywnych linków na stronie. Xenu można jednak wykorzystać do wielu innych codziennych prac specjalisty SEO, czego pewnie autor programu się nie spodziewał. Sprawne korzystanie z programu wymaga odrobiny wprawy, ze względu na dość ubogi i mało przyjazny interfejs.

Możliwości:

  • pobieranie statusów HTTP
  • pobieranie meta-tagów stron (title i description)
  • pobieranie informacji o głębokości” danej strony w strukturze witryny
  • pobieranie informacji o linkach przychodzących i wychodzących do danej strony
  • możliwość generowania sitemap
  • możliwość wykluczenia lub włączenia poszczególnych katalogów do skanowania
  • możliwość eksportu danych do kilku formatów

Plusy:

  • szybkość działania
  • program jest darmowy

Minusy:

  • mało intuicyjny i nieco archaiczny interfejs
  • brak aktualizacji

Podsumowanie:

Ze względu na swoją szybkość działania narzędzi dobrze się sprawdzi przy skanowaniu dużych serwisów pod względem linkowania wewnętrznego, dynamicznie generowanych adresów URL oraz niedziałających linków wychodzących.

Strona WWW:

http://home.snafu.de/tilman/xenulink.html

Cena:

Darmowy
 

DeepCrawl

audyt strony internetowej - deepcrawl

Narzędzie działające w modelu SaaS, dzięki czemu nie ma ograniczeń, które mają programy desktopowe. Program nastawiony jest głównie na analizowanie architektury serwisu i bieżące monitorowanie problemów technicznych.

Możliwości:

  • możliwość konfiguracji cyklicznego skanowania strony zakończonego raportem
  • możliwość ustawienia user-agent oraz IP z danego kraju bez korzystania z proxy
  • raporty zmian parametrów stron w czasie (np. jak zmieniała się ilość stron zwracających 404)
  • zbieranie informacji o zduplikowanych stronach
  • zbieranie informacji o problemach z meta-tagami (za krótkie, za długie, zduplikowane)
  • zbieranie informacji o stronach ze zbyt małą ilością tekstu
  • możliwe sprawdzenie poprawności przeniesienia i przebudowy serwisu

Plusy:

  • monitorowanie zmian parametrów w czasie
  • cykliczne skanowanie strony
  • bardzo duże możliwości personalizacji skanowania strony
  • bardzo duża ilość różnych raportów

Minusy:

  • cena

Podsumowanie:

DeepCrawl jest rozwiązaniem, na które, ze względu na cenę, mogą sobie pozwolić tylko duże agencje i firmy. Bieżące monitorowanie stron i podstron witryny pozwala na oszczędzenie czasu specjalistów SEO, szczególnie podczas przenosin lub przebudowy serwisów.

Strona WWW:

http://deepcrawl.co.uk/

Cena:

  • Pakiet Starter 80$ / mc - skanowanie do 100,000 adresów URL, 5 domen
  • Pakiet Basic 250$ / mc - skanowanie do 500,000 adresów URL, 15 domen
  • Pakiet Pro 450$ / mc - skanowanie do 1,000,000 adresów URL, 30 domen
  • Pakiet Enterprise 1,750$ / mc - skanowanie do 5,000,000 adresów URL, 50 domen
  • Pakiet Ultimate - cena i parametry ustalane indywidualnie

 

Polecane artykuły
domeny dla swojego portalu i bloga
Jak wybrać odpowiednią domenę dla swojej strony internetowej

Wybór właściwej domeny dla swojej strony internetowej to jeden z pierwszych problemów na które natknie się każda osoba czy firma chcąca publikować w Sieci. Ceny poszczególnych adresów potrafią bardzo się różnić, nie zawsze odpowiadając ich rzeczywistej wartości. Zobacz jak się w tym chaosie odnaleźć i na co przede wszystkim zwrócić uwagę.

dozwolone sposoby reklamy notariuszy i komorników sądowych
Reklama notariuszy i komorników sądowych

Reklama to skuteczny sposób na zbudowanie przewagi konkurencyjnej, jednak nie wszyscy mogą się nią posługiwać ograniczeń. Są grupy zawodowe, które obowiązuje wiele zakazów w tej kwestii, na przykład komornicy sądowi i notariusze. Jak w takiej sytuacji można promować swoją działalność?

Wasze komentarze (8)
Redakcja WhitePress zastrzega sobie prawo usuwania komentarzy obraźliwych dla innych osób, zawierających słowa wulgarne lub nie odnoszących się merytorycznie do tematu obiektu.
  • Angelika

    Najczęściej korzystam z SEO Optimera :) roiexperts.pl

    2016-08-23, 14:23
  • Karol Soja

    @Zgred
    Dziękuję za uwagę - poprawione.

    @Kasia z czasnaseo.pl
    Faktycznie, Woorank również jest bardzo dobrą wtyczką :)

    @Dariusz Jurek
    Dzięki za uwage, nie natrafiłem jeszcze na artykuł. Poprawione

    2014-05-18, 17:38
  • Dariusz Jurek

    "Odpowiednia ilość linków wewnętrznych - oficjalne zalecenie Google mówi o maksimum 100 linkach wychodzących z danej strony, im więcej linków tym mniejsza będzie moc(link-juice) przekazywana poszczególnym stronom."

    Już nie ;-) http://www.seroundtable.com/google-link-unlimited-18468.html

    2014-05-16, 12:47
  • kasia z czasnaseo.pl

    Ja dodałabym do tej listy np narzędzie ze strony http://mysiteauditor.com/, http://nibbler.silktide.com/ czy http://www.woorank.com/ ;)

    2014-05-14, 14:26
  • piotr

    @Zgred Czy nie działa tu import usług i faktura ma 0% vat?

    2014-05-14, 12:55
  • Pi313

    A jakich narzędzi brakuje?

    2014-05-14, 10:38
  • Mariusz z techformator.pl

    Podstawowa lista, szkoda że nie ma na niej innych solidnych aplikacji (dodam że darmowych). Narzędzia DeepCrawl nie znałem.

    2014-05-14, 10:35
  • Zgred

    Cena 99 funtów za Screaming Froga jest cena netto. Trzeba poprosić osobno o wystwienie FA netto z VATem płatnym w Polsce :)

    2014-05-14, 10:35