Przegląd narzędzi wspomagających wykonywanie audytów SEO


SEO to bardzo szeroki wachlarz działań dotyczących naszej strony internetowej. Szczególnie w ostatnim okresie czasu optymalizacja i struktury treści strony internetowej mają bardzo duże znaczenie. Na naszych stronach poruszaliśmy już kilka kluczowych działań.
Polecamy artykuły:
- Pozyskiwania linków poprzez katalogowanie.
- Narzędzia do analizy linków przychodzących.
- Tworzenia treści
Podstawowe zasady optymalizacji SEO
Oto podstawowe zasady, którymi powinniśmy się kierować przy optymalizacji stron WWW (przedstawione w formie infografiki i jej szczegółowego omówienia poniżej):
1. Odpowiednio zoptymalizowane meta-tagi
Są to podstawowe meta-dane opisujące zawartość konkretnych stron, od których warto zacząć optymalizację. Większość systemów CMS umożliwia dowolne ustawienie tych parametrów.
- Title - podstawowy i najprostszy do ustawienia element przy optymalizacji strony, powinien być unikalny w obrębie witryny, mieć maksymalnie około 60 znaków i dobrze jeżeli będzie zawierał słowo kluczowe, które przypisaliśmy do danej podstrony.
- Description - co prawda oficjalnie nie jest to czynnik wpływający na wyniki wyszukiwania, jednak warto pamiętać, że tekst meta description jest widoczny w wynikach pod adresem naszej strony (w większości przypadków), warto więc go uzupełnić w sposób, który może zachęcić użytkownika do wejścia na naszą stronę.
2. Nagłówki H
To element kodu strony, który ma na celu wskazanie odpowiedniej struktury i hierarchii treści na stronie. Struktura nagłówków powinna przypominać książkowy oraz prasowy układ tytułów i śródtytułów.
- Nagłówek H1 - powinien być tylko jeden, najlepiej tekstowy, wskazuje na najważniejszą treść na stronie.
- Nagłówki H2 - może być ich kilka, powinny występować po nagłówku H1.
- Nagłówki H3-H6 - analogicznie j.w.
3. Tekst na stronie
- Stosunek tekstu do kodu - nie ma jednej złotej liczby, określającej jaki % kodu strony powinien stanowić tekst, dobrym rozwiązaniem będzie jeżeli tekst będzie stanowić co najmniej kilkanaście % całego kodu strony.
- Umieszczenie słów kluczowych - podstawowym sygnałem dla wyszukiwarki, że dana strona jest powiązana z konkretnym słowem kluczowym jest obecność w tekście słów kluczowych, w związku z tym dobrze jest użyć je w tekście (w naturalny sposób).
4. Adresy URL
-
Długość - nie powinny być zbyt długie, w przeciwnym wypadku może się pojawić problem z ich indeksacją, rozsądną liczbą będzie 120 znaków długości.
-
Forma - najlepszą formą są opisowe adresy URL - takie, dzięki którym użytkownik jeszcze przed kliknięciem linka będzie wiedział, co zawiera strona.
-
Dynamicznie generowanie - adresy URL z parametrami generowane podczas sortowania, wyszukiwania i filtrowania często powodują duplikację treści.
5. Dyrektywy dla robotów
- Robots.txt - pozwala między innymi na ograniczenie dostępu robotów do niektórych części strony.
- Meta robots - umożliwia wyłączenie niektórych stron z indeksacji, wskazuje za linkami na jakich stronach robot nie powinien podążać, powinniśmy skorzystać z tego meta-tagu, jeżeli nie chcemy indeksować wybranych podstron serwisu.
- Sitemap.xml - mapa adresów na stronie, ułatwiająca indeksowanie przez roboty Google.
6. Linkowanie wewnętrzne
- Odpowiednia ilość linków wewnętrznych - im więcej linków tym mniejsza będzie moc (link-juice) przekazywana poszczególnym stronom. Do niedawna oficjalne zalecenie Google mówiło o maksimum 100 linkach wychodzących, jednak podczas jednego z Hangoutów stwierdzenie to zostało odwołane.
- Linki w formie anchorów tekstowych - najlepsza praktyka, pozwala na lepsze zrozumienie treści na stronie zarówno użytkownikom, jak i robotom wyszukiwarek.
7. Obrazy
Używając grafik w witrynie, powinniśmy zadbać o opisy alternatywne zdjęć, wykorzystywane zamiast grafik (roboty Google nie czytają obrazów, a właśnie opisy alternatywne).
8. Szybkość ładowania strony
Bardzo długi czas ładowania strony może źle wpływać zarówno na odczucia użytkowników, jak i na szybkość indeksacji. W skrajnych przypadkach (bardzo długi czas ładowania strony) może to wpływać negatywnie na pozycje.
9. Dane strukturalne
Opisy rozszerzone pozwalają na lepsze semantyczne zrozumienie strony przez wyszukiwarkę oraz uatrakcyjniają prezentację strony w wynikach wyszukiwania.
10. Architektura informacji
Serwisy internetowe nie powinny mieć zbyt wielu poziomów w strukturze, optymalne rozwiązanie to dostęp do każdej podstrony za pomocą 3 kliknięć.
11. Unikalność treści
Treści skopiowane z innych źródeł są mniej wartościowe i negatywnie wpływają na widoczność w wynikach wyszukiwania. Negatywny wpływ na pozycje oraz indeksację może mieć również powielanie tych samych treści w obrębie jednej witryny.
Wtyczki do przeglądarek pomocne przy audycie SEO
Najszybszego i najprostszego przeglądu witryny pod kątem SEO dokonamy za pomocą wtyczek do przeglądarki. Dzięki jednemu kliknięciu uzyskujemy informacje o istotnych dla SEO parametrach strony, na której aktualnie przebywamy. Poniżej opis najpopularniejszych wtyczek.
SEO Optimer
Możliwości:
-
generowanie podsumowania z listą sugerowanych zmian do wprowadzenia w witrynie
-
pobieranie informacji o meta-tagach (title, description, meta-robots, keywords)
-
pobieranie informacji o tekście (ilość słów, stosunek tekstu do kodu)
-
pobieranie informacji o nagłówkach H (ilość, treść)
-
pobieranie informacji o plikach robots.txt i sitemap.xml
-
generowanie listy grafik bez opisów alternatywnych
-
generowanie listy linków wychodzących z danej strony, z podziałem na zewnętrzne i wewnętrzne
-
informacje o sygnałach social media (like, +1, tweety)
-
wyświetlanie nagłówka HTTP zwracanego przez stronę
-
wyświetlanie informacji o serwerze
-
możliwość wygenerowania raportu PDF
Strona WWW:
SEO Quake
Możliwości:
-
wyświetlanie wskazówek odnośnie poprawnej optymalizacji poszczególnych elementów serwisu
-
pobieranie informacji o meta-tagach (title, description, keywords)
-
pobieranie informacji o nagłówkach H (ilość, treść)
-
informacje o stosunku ilości tekstu do kodu HTML
-
analizowanie strony pod kątem obecności ramek i kodu Flash
-
pobieranie informacji o plikach robots.txt i sitemap.xml
-
pobieranie informacji o mikroformatach
-
pobieranie informacji o serwerze
-
pobieranie informacji o występowaniu i gęstości poszczególnych słów kluczowych i kombinacjach słów kluczowych
Strona WWW:
Oprogramowanie wspomagające audyt SEO
Do dokładniejszej analizy całej strony i przeprowadzenia kompleksowego audytu SEO konieczne będzie wykorzystanie specjalnych programów. Poniżej opis 3 z nich:
ScreamingFrog
Program desktopowy, napisany w języku Java, pozwalający na przeskanowanie strony WWW pod kątem czynników ważnych dla SEO. Narzędzie dedykowane i stworzone z myślą o specjalistach SEO. Bardzo dobre narzędzie do przeprowadzenia szybkiego audytu głównie małych i średnich stron WWW. Często pojawiają się nowe aktualizacje, odpowiadające nowym wytycznym optymalizacji stron dla wyszukiwarek.
Możliwości:
-
pobieranie statusów HTTP podstron
-
pobieranie meta-tagów podstron (title, description, keywords)
-
pobieranie nagłówków H na podstronach
-
pobieranie informacji o „głębokości” w strukturze strony konkretnych podstron
-
pobieranie informacji o obrazach na stronie (rozmiar, opis alternatywny)
-
pobieranie informacji o linkach wychodzących i przychodzących do każdej strony
-
pobieranie informacji o dyrektywach dla robotów znajdujących się na każdej stronie (noindex, cannonical)
-
możliwość automatycznego eksportu stron wymagających poprawy (np. ze zduplikowanymi tagami title, kilkoma nagłówkami H1)
-
skanowanie stron wg własnych filtrów (np. pod kątem obecności kodu Google Analytics lubi innych skryptów)
-
możliwość pobierania strony z ustawionym różnym parametrem User-Agent
-
możliwość zidentyfikowania zduplikowanych podstron
-
możliwość wygenerowania sitemapy XML
-
pobieranie szczegółowych informacji o danej podstronie (Google Cache, linki w MajesticSEO, walidacja W3C) jednym kliknięciem
-
możliwość wykluczenia katalogów ze skanowania
-
możliwość przeskanowania tylko określonej listy adresów
-
duże możliwości eksportu danych
Plusy:
-
częste aktualizacje
-
przyjazny interfejs
-
możliwość szybkiego wyeksportowania stron wymagających poprawy pod względem SEO
Minusy:
-
program nie radzi sobie z większymi stronami na słabszych komputerach (jest możliwe rozwiązanie problemu: http://www.filiwiese.com/running-screaming-frog-on-google-cloud/)
-
ograniczenia w darmowej wersji
Podsumowanie:
Program pobiera dość dużo parametrów strony oraz ma wiele opcji eksportu i filtrowania danych, będzie więc idealną pomocą przy wykonywaniu audytu SEO, dopóki strona nie ma kilkuset tysięcy podstron.
Strona WWW:
http://www.screamingfrog.co.uk/seo-spider/
Cena:
-
Darmowa wersja - ograniczenie do 500 stron, brak możliwości tworzenia własnych filtrów
-
99 funtów (+VAT) / rok - brak limitów
Xenu Link Sleuth
Narzędzie desktopowe napisane w języku C++, głównym założeniem autorów było stworzenie narzędzia do sprawdzania nieaktywnych linków na stronie. Xenu można jednak wykorzystać do wielu innych codziennych prac specjalisty SEO, czego pewnie autor programu się nie spodziewał. Sprawne korzystanie z programu wymaga odrobiny wprawy, ze względu na dość ubogi i mało przyjazny interfejs.
Możliwości:
-
pobieranie statusów HTTP
-
pobieranie meta-tagów stron (title i description)
-
pobieranie informacji o „głębokości” danej strony w strukturze witryny
-
pobieranie informacji o linkach przychodzących i wychodzących do danej strony
-
możliwość generowania sitemap
-
możliwość wykluczenia lub włączenia poszczególnych katalogów do skanowania
-
możliwość eksportu danych do kilku formatów
Plusy:
-
szybkość działania
-
program jest darmowy
Minusy:
-
mało intuicyjny i nieco archaiczny interfejs
-
brak aktualizacji
Podsumowanie:
Ze względu na swoją szybkość działania narzędzi dobrze się sprawdzi przy skanowaniu dużych serwisów pod względem linkowania wewnętrznego, dynamicznie generowanych adresów URL oraz niedziałających linków wychodzących.
Strona WWW:
http://home.snafu.de/tilman/xenulink.html
Cena:
Darmowy
DeepCrawl
Narzędzie działające w modelu SaaS, dzięki czemu nie ma ograniczeń, które mają programy desktopowe. Program nastawiony jest głównie na analizowanie architektury serwisu i bieżące monitorowanie problemów technicznych.
Możliwości:
-
możliwość konfiguracji cyklicznego skanowania strony zakończonego raportem
-
możliwość ustawienia user-agent oraz IP z danego kraju bez korzystania z proxy
-
raporty zmian parametrów stron w czasie (np. jak zmieniała się ilość stron zwracających 404)
-
zbieranie informacji o zduplikowanych stronach
-
zbieranie informacji o problemach z meta-tagami (za krótkie, za długie, zduplikowane)
-
zbieranie informacji o stronach ze zbyt małą ilością tekstu
-
możliwe sprawdzenie poprawności przeniesienia i przebudowy serwisu
Plusy:
-
monitorowanie zmian parametrów w czasie
-
cykliczne skanowanie strony
-
bardzo duże możliwości personalizacji skanowania strony
-
bardzo duża ilość różnych raportów
Minusy:
-
cena
Podsumowanie:
DeepCrawl jest rozwiązaniem, na które, ze względu na cenę, mogą sobie pozwolić tylko duże agencje i firmy. Bieżące monitorowanie stron i podstron witryny pozwala na oszczędzenie czasu specjalistów SEO, szczególnie podczas przenosin lub przebudowy serwisów.
Strona WWW:
Cena:
-
Pakiet Starter 80$ / mc - skanowanie do 100,000 adresów URL, 5 domen
-
Pakiet Basic 250$ / mc - skanowanie do 500,000 adresów URL, 15 domen
-
Pakiet Pro 450$ / mc - skanowanie do 1,000,000 adresów URL, 30 domen
-
Pakiet Enterprise 1,750$ / mc - skanowanie do 5,000,000 adresów URL, 50 domen
-
Pakiet Ultimate - cena i parametry ustalane indywidualnie