# MDenseña - Як користуватися Screaming Frog SEO Spider Tool - MD Цифровий маркетинг Блог

  1. Розшифровка відео
  2. Налаштування крикувальної жаби:
  3. Аналіз клаптя

У рейтингу інструментів, якими я користуюся щодня, щоб працювати з нашими клієнтами, Screaming Frog SEO Spider займає перше місце.

Ми знаємо, що Google має дуже складний алгоритм, який спирається на різні фактори позиціонування на сторінці та виключення сторінки.

Screaming Frog дозволяє "імітувати", як бот Google бачить на сторінці фактори і мати уявлення про те, що ваш гусеничний отримує для виявлення точок поліпшення в мета-теги Назва, описи, Canonicals, заголовки H1 / H2, індекс мета-роботів / немає індексів, URL-адрес, дубльованих сторінок, кодів конверсій, альтернативного тексту в зображеннях, швидкості завантаження тощо. Для цього ви вводите веб-сторінку походження (зазвичай основний домен нашого сайту), і звідти програма починає рекурсивно сканувати всі внутрішні сторінки, виявлені при кожному знайденому гіперпосилання.

Розшифровка відео

У цьому відео ми будемо говорити про Screaming Frog SEO Spider, програму, яку я використовую для сканування всіх внутрішніх URL-адрес веб-сайту та швидкого аудиту SEO.

Програма доступна для Windows, Mac і Linux. Це зроблено в JAVA, тому це мультиплатформність. Він має безкоштовну версію, яка обмежується скануванням до 500 внутрішніх URL-адрес веб-сайту.

Ліцензія виходить 99 фунтів, і я дійсно рекомендую її, тому що це дуже корисно.

Налаштування крикувальної жаби:

У «Павуку» активні всі варіанти, щоб повністю проаналізувати сайт (ми не ставимо ніяких обмежень).

У розділі "Виключити" ми можемо видалити розділ для прискорення процесу сканування або, якщо ми хочемо проаналізувати певну частину. У моєму випадку я збираюся видалити блог, щоб зробити його швидше.

У "Швидкості" можна налаштувати швидкість з кількістю потоків, які ви будете залишати відкритими одночасно. Зазвичай я залишаю п'ять, мені це подобається іноді, коли я дійсно поспішаю поставити більше, але ви повинні бути обережні, що іноді сервери блокують IP після того, як зробили багато запитів одночасно. Якщо сервер дозволяє це, підвищення кількості потоків збільшує швидкість.

Іншим цікавим варіантом є вибір іншого агента користувача, наприклад, коли ми хочемо сканувати сайт у мобільній версії, налаштувавши "Googlebot-Mobile", ми бачимо, як Googlebot бачить мобільну версію веб-сайту.

Ми також можемо налаштувати певний блок коду, який ми хочемо охопити, якщо він існує на веб-сайті, я використовую його більш ніж будь-що для пошуку в Google Analytics UA-XXXXXXX-X, щоб фільтрувати, які сторінки мають код відстеження (і в якому ні).

Ми аналізуємо, щоб пояснити закрилки програми.

(Поки павук працює)

У нижньому розділі показано, скільки URL-адрес аналізується одночасно, а в нижньому правому куті - скільки ще потрібно проаналізувати. Праворуч від "Очистити" відображається загальний проаналізований відсоток.

Як я видалив блог це буде досить швидко, але це багато в чому залежить від кількості URL-адрес, які має веб-сайт. Знову ж таки, якщо ми маємо більше 500 (це було всього 499), але він не буде показувати більше 500, якщо ми не настроїли ліцензію.

Аналіз клаптя

У внутрішній вкладці вона залишає нам інформацію про все, що було скановане, не тільки показує HTML, але і JavaScript, CSS, зображення, PDF і т.д.

Особливо я використовую внутрішній і зовнішній клапани, щоб фільтрувати, якщо у нас є помилка 404 на деякому сайті, сторінці або ресурсі, який не завантажується правильно. У цьому випадку це все добре і зовнішні теж (крім двох, які дали Connection відмовився). Ви можете дати повторне сканування Re-Spider.

Клап URI, який я використовую, щоб побачити, які сторінки дублюються. Кожен раз, коли Screaming Frog сканує вихідний код сторінки, вона повертає HASH, який унікально ідентифікує вміст. Буквено-цифровий код обчислюється з усього html-коду цієї веб-сторінки, тобто, якщо дві сторінки мають один і той же Hash, вони є дубльованими сторінками, які з різними URL-адресами мають однаковий вміст. Вони можуть бути відфільтровані і експортовані швидко, щоб відправити програмісту або змінити певний параметр, щоб вони перестали бути репліками.

Потім ми маємо лацкани з заголовків, описів, H1 і H2. На цих клаптях я перевіряю щось подібне в кожній з колон; це, в принципі, титули, зроблені у всіх розділах.

Фільтрація з "Відсутній" повідомляє нам, які сторінки відсутні. Це також стосується описів сторінок.

Те ж саме для ключових слів Meta, більше не використовуються для SEO (сама Bing), але це корисно для вилучення інформації: якщо вона відсутня, якщо є багато налаштованих (на оптимізацію - Keyword Stuffing); ми також можемо побачити, чи є вони дублікатами або якщо вони перевищують 56 символів. Можливо, це скорочується Google у видачах.

Швидко ви можете проаналізувати всі заголовки HTML-сторінок в Інтернеті, а в разі виявлення дублікатів, або якщо вони відсутні, ви можете експортувати їх і передавати програмісту, щоб виправити їх.

Аналогічний аналіз застосовується до описів мета.

У зображеннях ми можемо фільтрувати вище 100 Кб, щоб оптимізувати їх і поліпшити швидкість завантаження. Вони мають дуже довгий альтернативний текст, понад 100 символів. Це може статися з тим, хто намагався оптимізувати зображення та покласти ключові слова для інших, розуміючи, що це покращує позиціонування.

Найбільш використовуваним фільтром є той, що дозволяє побачити, які зображення не мають альтернативного тексту, щось спільне.

На вкладці "Директиви" мені подобається, які URL-адреси мають свою канонічну позначку, щоб побачити, чи є вона правильною, і які були канонізовані, щоб перевірити, чи правильно вказана URL-адреса, позначена як істина.

Потім ми можемо досліджувати сторінки, які не індексуються, якщо ми не хочемо індексувати будь-яку особливість або якщо є помилка, в якій мета-роботи не індексуються, а насправді ми хочемо його індексувати.

На вкладці "Користувацькі" є спеціальні фільтри, які налаштовуються для фільтрації коду переходів adwords або analytics, пікселя конверсії facebook або будь-якого іншого унікального коду, який ми хочемо побачити, якщо він знаходиться на всіх веб-сторінках.

Іншим цікавим варіантом є створення файлів Sitemap: швидкий, з кількома клацами ми можемо бути готовим до завантаження його на FTP.

Безумовно, існує більше функцій, які мене вислизають, я в основному хотів показати, що я використовую нормально, програма дуже повна, і якщо ви знайдете будь-яке цікаве, що я не назвав, я хотів би знати.

Автор: Хуан Ігнасіо Ретта

SEO аналітик цифрового маркетингу MD

# MDenseña - Крик жаби SEO Spider Tool

Оцініть цю публікацію

Останні повідомлення від Manuel Tacconi ( побачити все )