# MDenseña - Jak używać Screaming Frog SEO Spider Tool - Blog MD Digital Marketing

  1. Zapis wideo
  2. Ustawienia krzyku żaby:
  3. Analiza klap

W rankingu narzędzi, z których korzystam na co dzień do pracy z naszymi klientami, pierwsze miejsce zajmuje Screaming Frog SEO Spider.

Wiemy, że Google ma bardzo zaawansowany algorytm, który opiera się na różnych czynnikach pozycjonowania na stronie i poza stroną.

Screaming Frog pozwala „symulować” sposób, w jaki bot Google widzi czynniki On Page i ma pojęcie o tym, co twój robot robi, aby zidentyfikować punkty ulepszeń w meta tagach. Tytuł, opisy, Canonicals, nagłówki H1 / H2, meta robots index / brak indeksu, adresów URL, duplikatów stron, kodów konwersji, alternatywnego tekstu na obrazach, szybkości ładowania i innych. Aby to zrobić, wchodzisz na stronę internetową pochodzenia (zazwyczaj główną domenę naszej strony) i stamtąd oprogramowanie zaczyna skanować rekurencyjnie wszystkie wewnętrzne strony wykryte przy każdym znalezionym hiperłączu.

Zapis wideo

W tym filmie będziemy mówić o Screaming Frog SEO Spider, programie, którego używam do skanowania wszystkich wewnętrznych adresów URL witryny i przeprowadzania szybkiego audytu SEO.

Program jest dostępny dla systemów Windows, Mac i Linux. Jest wykonany w JAVA, dlatego jest wieloplatformowy. Ma darmową wersję, która ogranicza się do skanowania do 500 wewnętrznych adresów URL witryny.

Licencja pochodzi z 99 funtów i naprawdę ją polecam, ponieważ jest bardzo przydatna.

Ustawienia krzyku żaby:

W „Spider” aktywuj wszystkie opcje, aby w pełni przeanalizować witrynę (nie wprowadzamy żadnych ograniczeń).

W „Wyklucz” możemy usunąć sekcję, aby przyspieszyć proces skanowania lub jeśli chcemy przeanalizować konkretną część. W moim przypadku zamierzam usunąć bloga, aby go przyspieszyć.

W polu „Prędkość” możesz skonfigurować szybkość z liczbą wątków, które będą otwarte w tym samym czasie. Zwykle zostawiam pięć, lubię to czasami, gdy naprawdę spieszy mi się więcej, ale musisz uważać, że czasami serwery blokują IP po złożeniu wielu żądań w tym samym czasie. Jeśli serwer na to pozwala, zwiększenie liczby wątków zwiększa szybkość.

Inną interesującą opcją jest wybór innego agenta użytkownika, na przykład, gdy chcemy przeskanować witrynę w wersji mobilnej, konfigurując „Googlebot-Mobile”, możemy zobaczyć, jak Googlebot zobaczy mobilną wersję strony.

Możemy również skonfigurować konkretny blok kodu, który chcemy objąć, jeśli istnieje w witrynie, wykorzystuję go bardziej niż cokolwiek do przeszukiwania UA Analytics UA-XXXXXXX-X, aby filtrować, które strony mają zaimplementowany kod śledzenia (iw którym nie).

Analizujemy, aby wyjaśnić klapy programu.

(Podczas gdy pająk jest uruchomiony)

W dolnej części pokazuje, ile adresów URL jest analizowanych w tym samym czasie, aw prawym dolnym rogu, ile pozostaje do analizy. Na prawo od „Wyczyść” pokazuje całkowitą analizowaną wartość procentową.

Po usunięciu bloga będzie on dość szybki, ale zależy to w dużej mierze od liczby adresów URL witryny. Ponownie, jeśli mamy więcej niż 500 (to było tylko 499), ale nie będzie więcej niż 500, chyba że mamy skonfigurowaną licencję.

Analiza klap

W wewnętrznej karcie zostawia nam informacje o wszystkim, co zostało zeskanowane, nie tylko pokazuje html, ale także JavaScript, CSS, obrazy, PDF itp.

W szczególności używam klapek wewnętrznych i zewnętrznych do filtrowania, jeśli mamy jakiś błąd 404 w jakiejś witrynie, stronę lub zasób, który nie ładuje się poprawnie. W tym przypadku wszystko jest dobre, a zewnętrzne również (z wyjątkiem dwóch, które odmówiły Połączenia). Możesz ponownie przeskanować Re-Spidera.

Klapa URI, której używam, aby zobaczyć, które strony są duplikowane. Za każdym razem, gdy Screaming Frog skanuje kod źródłowy strony, zwraca HASH, który jednoznacznie identyfikuje zawartość. Kod alfanumeryczny jest obliczany na podstawie całego kodu HTML danej strony internetowej, co oznacza, że ​​jeśli dwie strony mają ten sam kod Hash, są to duplikaty stron, które z różnymi adresami URL mają tę samą treść. Można je szybko filtrować i eksportować, aby wysłać je do programisty lub zmienić jakiś parametr, aby przestały być replikami.

Następnie mamy klapę tytułów stron, opisów, H1 i H2. Na tych klapach sprawdzam coś podobnego w każdej z kolumn; które są zasadniczo tytułami we wszystkich sekcjach.

Filtrowanie za pomocą „Brak” mówi nam, których stron brakuje. Dotyczy to również opisów stron.

To samo dotyczy słów kluczowych Meta, nie jest już używany do SEO (sam Bing), ale jest przydatny do wyodrębniania informacji: jeśli brakuje, jeśli jest wiele skonfigurowanych (przy optymalizacji - Nadziewanie słów kluczowych); możemy również sprawdzić, czy są duplikatami lub czy mają ponad 56 znaków. Prawdopodobnie są one wycinane przez Google w SERP.

Szybko możesz analizować wszystkie tytuły stron html w internecie, aw przypadku znalezienia duplikatów lub jeśli ich brakuje, możesz je wyeksportować i przekazać programistom, aby je poprawić.

Ta sama analiza dotyczy opisów Meta.

W obrazach możemy filtrować powyżej 100 Kb, aby je zoptymalizować i poprawić szybkość ładowania. Mają bardzo długi tekst alternatywny, powyżej 100 znaków. Może się tak zdarzyć, gdy ktoś próbował zoptymalizować obrazy i umieścić słowa kluczowe dla innych, rozumiejąc, że poprawia to pozycjonowanie.

Najczęściej używany filtr to taki, który pozwala zobaczyć, które obrazy nie mają skonfigurowanego alternatywnego tekstu, coś wspólnego.

Na karcie Dyrektywy lubię znaleźć, które adresy URL mają swoją kanoniczną etykietę, aby sprawdzić, czy są poprawne, a które zostały kanonizowane, aby sprawdzić, czy adres URL oznaczony jako prawdziwy jest poprawny.

Następnie możemy zbadać strony, które nie są indeksowane, jeśli nie chcemy indeksować żadnego konkretnego lub jeśli istnieje błąd, który nie indeksuje robotów meta, a właściwie chcemy go zaindeksować.

Na karcie Niestandardowe znajdują się filtry niestandardowe, które konfigurujemy w celu filtrowania kodu konwersji AdWords lub analizy, piksela konwersji na Facebooku lub dowolnego unikalnego kodu, który chcemy sprawdzić, czy jest na wszystkich stronach internetowych.

Inną interesującą opcją jest tworzenie map witryn: szybko, za pomocą kilku kliknięć, możemy przygotować ją do przesłania na FTP.

Z pewnością jest więcej funkcji, które mi uciekają, głównie chciałem pokazać, co normalnie używam, program jest bardzo kompletny i jeśli znajdziesz jakieś interesujące informacje, których nie wymieniłem, chciałbym to wiedzieć.

Autor: Juan Ignacio Retta

SEO Analyst MD Digital Marketing

# MDenseña - Screaming Frog SEO Spider Tool

Oceń ten post

Ostatnie posty Manuel Tacconi ( zobacz wszystko )