Przegląd narzędzi wspomagających wykonywanie audytów SEO



narzędzia do audytów SEO
Poprawna optymalizacja techniczna strony internetowej to drugi poza linkami składnik sukcesu w SEO. Optymalizowanie witryny pod kątem SEO powinno mieć miejsce już na etapie jej projektowania, jednak taka sytuacja to raczej rzadkość. Stąd też duża popularność usług audytów SEO w naszej branży. Z pomocą kilku narzędzi i podstawową wiedzą często jesteśmy w stanie samodzielnie zdiagnozować słabe strony naszej witryny i dokonać podstawowej optymalizacji pod kątem SEO.

SEO to bardzo szeroki wachlarz  działań dotyczących naszej strony internetowej. Szczególnie w ostatnim okresie czasu optymalizacja i struktury  treści strony internetowej mają bardzo duże znaczenie.Na naszych stronach poruszaliśmy już kilka kluczowych działań.

Polecamy artykuły:

 

Podstawowe zasady optymalizacji SEO


Oto lista podstawowych zasad, jakimi powinniśmy się kierować przy optymalizacji stron WWW:
 

1. Odpowiednio zoptymalizowane meta-tagi

Są to podstawowe meta-dane opisujące zawartość konkretnych stron, od których warto zacząć optymalizację. Większość systemów CMS umożliwia dowolne ustawienie tych parametrów.

  • Title - podstawowy i najprostszy do ustawienia element przy optymalizacji strony, powinien być unikalny w obrębie witryny, mieć maksymalnie około 60 znaków i dobrze jeżeli będzie zawierał słowo kluczowe, które przypisaliśmy do danej podstrony.
  • Description - co prawda oficjalnie nie jest to czynnik wpływający na wyniki wyszukiwania, jednakże warto pamiętać, że tekst meta description jest widoczny w wynikach pod adresem naszej strony(w większości przypadków), warto więc go uzupełnić w sposób, który może zachęcić użytkownika do wejścia na naszą stronę.

2. Nagłówki H

To element kodu strony, który ma na celu wskazanie odpowiedniej struktury i hierarchii treści na stronie. Struktura nagłówków powinna przypominać książkowy oraz prasowy układ tytułów i śródtytułów.

  • Nagłówek H1 - powinien być tylko jeden, najlepiej tekstowy, wskazuje na najważniejszą treść na stronie.
  • Nagłówki H2 - może być ich kilka, powinny występować po nagłówku H1.
  • Nagłówki H3-H6 - analogicznie j.w.

3. Tekst na stronie

  • Stosunek tekstu do kodu - nie ma jednej złotej liczby, określającej jaki % kodu strony powinien stanowić tekst, dobrym rozwiązaniem będzie jeżeli tekst będzie  stanowić co najmniej kilkanaście % całego kodu strony.
  • Umieszczenie słów kluczowych - podstawowym sygnałem dla wyszukiwarki, że dana strona jest powiązana z konkretnym słowem kluczowym jest obecność w tekście słów kluczowych, w związku z tym dobrze jest ich użyć w tekście(w naturalny sposób).

4. Adresy URL

  • Długość - nie powinny być zbyt długie, w przeciwnym wypadku może się pojawić problem z ich indeksacją, rozsądną liczbą będzie 120 znaków długości.

  • Forma - najlepszą formą są opisowe adresy URL - takie, dzięki którym użytkownik jeszcze przed kliknięciem linka będzie wiedział ,co zawiera strona.

  • Dynamicznie generowane - adresy URL z parametrami generowane podczas sortowania, wyszukiwania i filtrowania często powodują duplikację treści.

5. Dyrektywy dla robotów

  • Robots.txt - pozwala między innymi na ograniczenie dostępu robotów do niektórych części strony.
  • Meta robots - umożliwia wyłączenie niektórych stron z indeksacji, wskazuje za linkami na jakich stronach robot nie powinien podążać, powinniśmy skorzystać z tego meta-tagu, jeżeli nie chcemy indeksować wybranych podstron serwisu.
  • Sitemap.xml - mapa adresów na stronie, ułatwiająca indeksowanie przez roboty Google.

6. Linkowanie wewnętrzne

  • Odpowiednia ilość linków wewnętrznych -  im więcej linków tym mniejsza będzie moc(link-juice) przekazywana poszczególnym stronom. Do niedawna oficjalne zalecenie Google mówiło o maksimum 100 linkach wychodzących, jednak podczas jednego z Hangoutów stwierdzenie to zostało odwołane.
  • Linki w formie anchorów tekstowych - najlepsza praktyka, pozwala na lepsze zrozumienie treści na stronie zarówno użytkownikom, jak i robotom wyszukiwarek.

7. Obrazy

Używając grafik w witrynie, powinniśmy zadbać o opisy alternatywne zdjęć, używane zamiast grafik(roboty Google nie czytają obrazów, a właśnie opisy alternatywne).

8. Szybkość ładowania strony

Bardzo długi czas ładowania strony może źle wpływać zarówno na odczucia użytkowników, jak i na szybkość indeksacji. W skrajnych przypadkach(bardzo długi czas ładowania strony) może to wpływać negatywnie na pozycje.

9. Dane strukturalne

Opisy rozszerzone pozwalają na lepsze semantyczne zrozumienie strony przez wyszukiwarkę oraz uatrakcyjniają prezentację strony w wynikach wyszukiwania.

10. Architektura informacji

Serwisy internetowe nie powinny mieć zbyt wielu poziomów w strukturze, optymalnie rozwiązanie to dostęp do każdej podstrony za pomocą 3 kliknięć.

11. Unikalność treści

Treści skopiowane z innych źródeł są mniej wartościowe i negatywnie wpływają na widoczność w wynikach wyszukiwania. Negatywny wpływ na pozycje oraz indeksację może mieć również powielanie tych samych treści w obrębie jednej witryny.

 

Wtyczki do przeglądarek pomocne przy audycie SEO

Najszybszego i najprostszego przeglądu witryny pod kątem SEO dokonamy za pomocą wtyczek do przeglądarki. Dzięki jednemu kliknięciu uzyskujemy informacje o istotnych dla SEO parametrach strony, na której aktualnie przebywamy. Poniżej opis najpopularniejszych wtyczek.

 

SEO Optimer

analiza seo - seoptimer

Możliwości:

  • generowanie podsumowania z listą sugerowanych zmian do wprowadzenia w witrynie
  • pobieranie informacji o meta-tagach(title, description, meta-robots, keywords)
  • pobieranie informacji o tekście(ilość słów, stosunek tekstu do kodu)
  • pobieranie informacji o nagłówkach H(ilość, treść)
  • pobieranie informacji o plikach robots.txt i sitemap.xml
  • generowanie listy grafik bez opisów alternatywnych
  • generowanie listy linków wychodzących z danej strony, z podziałem na zewnętrzne i wewnętrzne
  • informacje o sygnałach social media(like, +1, tweety)
  • wyświetlanie nagłówka HTTP zwracanego przez stronę
  • wyświetlanie informacji o serwerze
  • możliwość wygenerowania raportu PDF

Strona WWW:

http://www.seoptimer.com/

 

SEO Quake

audyt seo - seoquake

Możliwości:

  • wyświetlanie wskazówek odnośnie poprawnej optymalizacji poszczególnych elementów serwisu
  • pobieranie informacji o meta-tagach(title, description, keywords)
  • pobieranie informacji o nagłówkach H(ilość, treść)
  • informacje o stosunku ilości tekstu do kodu HTML
  • analizowanie strony pod kątem obecności ramek i kodu Flash
  • pobieranie informacji o plikach robots.txt i sitemap.xml
  • pobieranie informacji o mikroformatach
  • pobieranie informacji o serwerze
  • pobieranie informacji o występowaniu i gęstości poszczególnych słów kluczowych i kombinacjach słów kluczowych

Strona WWW:

http://www.seoquake.com/

 

Oprogramowanie wspomagające audyt SEO

Do dokładniejszej analizy całej strony i przeprowadzenia kompleksowego audytu SEO konieczne będzie wykorzystanie specjalnych programów. Poniżej opis 3 z nich.

 

ScreamingFrog

audyt seo - screaming frog

Program desktopowy, napisany w języku Java, pozwalający na przeskanowanie strony WWW pod kątem czynników ważnych dla SEO. Narzędzie dedykowane i stworzone z myślą o specjalistach SEO. Bardzo dobre narzędzie do przeprowadzenia szybkiego audytu głównie małych i średnich stron WWW. Często pojawiają się nowe aktualizacje, odpowiadające na nowym wytycznym optymalizacji stron dla wyszukiwarek.

Możliwości:

  • pobieranie statusów HTTP podstron
  • pobieranie meta-tagów podstron(title,description,keywords)
  • pobieranie nagłówków H na podstronach
  • pobieranie informacji o “głębokości” w strukturze strony konkretnych podstron
  • pobieranie informacji o obrazach na stronie(rozmiar, opis alternatywny)
  • pobieranie informacji o linkach wychodzących i przychodzących do każdej strony
  • pobieranie informacji o dyrektywach dla robotów znajdujących się na każdej stronie(noindex, cannonical)
  • możliwość automatycznego eksportu stron wymagających poprawy(np. ze zduplikowanymi tagami title, kilkoma nagłówkami H1)
  • skanowanie stron wg własnych filtrów(np. pod kątem obecności kodu Google Analytics lubi innych skryptów)
  • możliwość pobierania strony z ustawionym różnym parametrem User-Agent
  • możliwość zidentyfikowania zduplikowanych podstron
  • możliwość wygenerowania sitemapy XML
  • pobieranie szczegółowych informacji o danej podstronie(Google Cache, linki w MajesticSEO, walidacja W3C) jednym kliknięciem
  • możliwość wykluczenia katalogów ze skanowania
  • możliwość przeskanowania tylko określonej listy adresów
  • duże możliwości eksportu danych
  • możliwość wygenerowania sitemapy

Plusy:

  • częste aktualizacje
  • przyjazny interfejs
  • możliwość szybkiego wyeksportowania stron wymagających poprawy pod względem SEO

Minusy:

 

Podsumowanie:

Program pobiera dość dużo parametrów strony oraz ma wiele opcji eksportu i filtrowania danych, będzie więc idealną pomocą przy wykonywaniu audytu SEO, dopóki strona nie ma kilkuset tysięcy podstron.

Strona WWW:

http://www.screamingfrog.co.uk/seo-spider/

Cena:

  • Darmowa wersja - ograniczenie do 500 stron, brak możliwości tworzenia własnych filtrów
  • 99 funtów(+VAT) / rok - brak limitów

 

Xenu Link Sleuth

audyt strony www - XENU

Narzędzie desktopowe napisane w języku C++, głównym założeniem autorów było stworzenie narzędzia do sprawdzania nieaktywnych linków na stronie. Xenu można jednak wykorzystać do wielu innych codziennych prac specjalisty SEO, czego pewnie autor programu się nie spodziewał. Sprawne korzystanie z programu wymaga odrobiny wprawy, ze względu na dość ubogi i mało przyjazny interfejs.

Możliwości

  • pobieranie statusów HTTP
  • pobieranie meta-tagów stron(title i description)
  • pobieranie informacji o “głębokości” danej strony w strukturze witryny
  • pobieranie informacji o linkach przychodzących i wychodzących do danej strony
  • możliwość generowania sitemap
  • możliwość wykluczenia lub włączenia poszczególnych katalogów do skanowania
  • możliwość eksportu danych do kilku formatów

Plusy:

  • szybkość działania
  • program jest darmowy

Minusy:

  • mało intuicyjny i nieco archaiczny interfejs
  • brak aktualizacji

 

Podsumowanie:

Ze względu na swoją szybkość działania narzędzi dobrze się sprawdzi przy skanowaniu dużych serwisów pod względem linkowania wewnętrznego, dynamicznie generowanych adresów URL oraz niedziałających linków wychodzących.

Strona WWW:

http://home.snafu.de/tilman/xenulink.html

Cena:

Darmowy

 

DeepCrawl

audyt strony internetowej - deepcrawl

Narzędzie działające w modelu SaaS, dzięki czemu nie ma ograniczeń, które mają programy desktopowe. Program nastawiony jest głównie na analizowanie architektury serwisu i bieżące monitorowanie problemów technicznych.

Możliwości:

  • możliwość konfiguracji cyklicznego skanowania strony zakończonego raportem
  • możliwość ustawienia user-agent oraz IP z danego kraju bez korzystania proxy
  • raporty zmian parametrów stron w czasie(np. jak zmieniała się ilość stron zwracających 404)
  • zbieranie informacji o zduplikowanych stronach
  • zbieranie informacji o problemach z meta-tagami(za krótkie, za długie, zduplikowane)
  • zbieranie informacji o stronach ze zbyt małą ilością tekstu
  • możliwe sprawdzenie poprawności przeniesienia i przebudowy serwisu

Plusy:

  • monitorowanie zmian parametrów w czasie
  • cykliczne skanowanie strony
  • bardzo duże możliwości personalizacji skanowania strony
  • bardzo duża ilość różnych raportów

Minusy:

  • cena

 

Podsumowanie:

DeepCrawl jest rozwiązaniem, na które ze względu na cenę mogą sobie pozwolić tylko duże agencje i firmy. Bieżące monitorowanie stron i podstron witryny pozwala na oszczędzenie czasu specjalistów SEO szczególnie podczas przenosin lub przebudowy serwisów.

Strona WWW:

http://deepcrawl.co.uk/

Cena:

  • Pakiet Starter 80$ / mc - skanowanie do 100,000 adresów URL, 5 domen
  • Pakiet Basic 250$ / mc - skanowanie do 500,000 adresów URL, 15 domen
  • Pakiet Pro 450$ / mc - skanowanie do 1,000,000 adresów URL, 30 domen
  • Pakiet Enterprise 1,750$ / mc - skanowanie do 5,000,000 adresów URL, 50 domen
  • Pakiet Ultimate - cena i parametry ustalane indywidualnie

Opracował: Karol Soja

Podobał Ci się ten artykuł?
Unikalne i ekskluzywne artykuły na Twój adres E-mail.
Nie wysyłamy reklam, nie spamujemy. Zapisz się!
Zobacz także
Komentarze
Angelika 2016-08-23, 14:23
Najczęściej korzystam z SEO Optimera :)
Karol Soja 2014-05-18, 17:38
@Zgred
Dziękuję za uwagę - poprawione.

@Kasia z czasnaseo.pl
Faktycznie, Woorank również jest bardzo dobrą wtyczką :)

@Dariusz Jurek
Dzięki za uwage, nie natrafiłem jeszcze na artykuł. Poprawione
Dariusz Jurek 2014-05-16, 12:47
"Odpowiednia ilość linków wewnętrznych - oficjalne zalecenie Google mówi o maksimum 100 linkach wychodzących z danej strony, im więcej linków tym mniejsza będzie moc(link-juice) przekazywana poszczególnym stronom."

Już nie ;-) http://www.seroundtable.com/google-link-unlimited-18468.html
kasia z czasnaseo.pl 2014-05-14, 14:26
Ja dodałabym do tej listy np narzędzie ze strony http://mysiteauditor.com/, http://nibbler.silktide.com/ czy http://www.woorank.com/ ;)
piotr 2014-05-14, 12:55
@Zgred Czy nie działa tu import usług i faktura ma 0% vat?
Pi313 2014-05-14, 10:38
A jakich narzędzi brakuje?
Mariusz z techformator.pl 2014-05-14, 10:35
Podstawowa lista, szkoda że nie ma na niej innych solidnych aplikacji (dodam że darmowych). Narzędzia DeepCrawl nie znałem.
Zgred 2014-05-14, 10:35
Cena 99 funtów za Screaming Froga jest cena netto. Trzeba poprosić osobno o wystwienie FA netto z VATem płatnym w Polsce :)
Dodaj komentarz
*
*
*
Redakcja WhitePress zastrzega sobie prawo usuwania komentarzy obraźliwych dla innych osób, zawierających słowa wulgarne lub nie odnoszących się merytorycznie do tematu obiektu.
Bloguj, inspiruj, zarabiaj!
Stworzyliśmy nowy moduł dla influencerów.
Zarejestruj się
Zapytaj o ofertę SEO.
Zintegrowane usługi SEO
dla wymagających.
Napisz do nas
Skuteczne narzędzie
wspierające e-Marketing.
Zobacz jak działa platforma
Sprawdź możliwości
Śledź nas na
Facebooku
Zobacz również
WhitePress sp. z o.o.
43-300 Bielsko-Biała
ul. Legionów 26/28
NIP: 937-266-77-97
Konto: 45 1240 1170 1111 0010 5429 3648

redakcja@whitepress.pl
tel.: 33 470 30 48
Biuro otwarte PN-PT: 8.00-16.00
Top