Лента новостей

Кредит под залог недвижимости
Необходимость в займе финансовых средств может возникнуть как у частного лица, так и предприятия. Сегодня кредитование не является особенной проблемой и, например, получить кредит под залог недвижимости

Недвижимость
Наша великая Родина богата прекрасными населенными пунктами и городами с удивительной архитектурой и комфортными условиями жизни. Конечно, очень привлекательна в этом плане Новосибирск, который расположен

Недвижимость новая рига
Хотите почувствовать себя королями? Хотя нет, так наверное могут жить только боги недвижимость новая рига. Элитный поселок с замечательной архитектурой, открытым спа, бассейнами, фонтанами. Все находиться

Инвестиции в недвижимость Европы: тенденции 2017 года
Для инвесторов: обзор ключевых рынков европейской недвижимости в 2017 году. Недвижимость в Германии Доля недвижимости Германии в ВВП страны сегодня составляет 9,8%. Недвижимость в Германии отличалась

Дешевая Польская недвижимость
Если по какой-то причине мы решили продать квартиру, безусловно, мы хотим, чтобы это сделать как можно скорее и по лучшей цене. Тем не менее, для этого можно, мы должны быть готовы. Ничто не остановит

«Недвижимость» / Госкорпорации отказано в эффективности
По результатам проверки Счетной палатой деятельности Фонда содействия реформированию жилищно-коммунального хозяйства ( Фонд ЖКХ), площадь аварийного жилья в стране выросла на 1,6 млн. квадратных метров

Лизинг недвижимости
Обычно компании берут аванс - 10-20 % со ставкой удорожания 6-8 %, иногда 10-12% в год на срок от 2 до 10 лет, предлагая различные варианты графиков лизинговых платежей. занимаются примерно десяток компаний

Специалист по недвижимости
Наша компания стремиться дать широкие возможности, удобство в работе без лишних трат всем участникам рынка недвижимости Крыма. Аренда квартир, комнат, коттеджей, продажа в Санкт-Петербурге Гильдия риэлторов

Коммерческие помещения | Жилье, недвижимость > Коммерческие помещения | Киев | SLANET
class="top_line"> id="topnav"> class="subcolumns" id="logonav"> id="nav demo" class="hlist"> id="topnav"> id="header_tab"> id="content"> class="c75l"> class="c25r"> class="subcolumns"> class="c75l">

Юрист по недвижимости
При осуществлении такой юридически сложной и трудоемкой сделки, как покупка или продажа квартиры или участка земли, достаточно часто возникает необходимость обращения за специализированной юридической

# MDenseña - Як користуватися Screaming Frog SEO Spider Tool - MD Цифровий маркетинг Блог

  1. Розшифровка відео
  2. Налаштування крикувальної жаби:
  3. Аналіз клаптя

У рейтингу інструментів, якими я користуюся щодня, щоб працювати з нашими клієнтами, Screaming Frog SEO Spider займає перше місце.

Ми знаємо, що Google має дуже складний алгоритм, який спирається на різні фактори позиціонування на сторінці та виключення сторінки.

Screaming Frog дозволяє "імітувати", як бот Google бачить на сторінці фактори і мати уявлення про те, що ваш гусеничний отримує для виявлення точок поліпшення в мета-теги Назва, описи, Canonicals, заголовки H1 / H2, індекс мета-роботів / немає індексів, URL-адрес, дубльованих сторінок, кодів конверсій, альтернативного тексту в зображеннях, швидкості завантаження тощо. Для цього ви вводите веб-сторінку походження (зазвичай основний домен нашого сайту), і звідти програма починає рекурсивно сканувати всі внутрішні сторінки, виявлені при кожному знайденому гіперпосилання.

Розшифровка відео

У цьому відео ми будемо говорити про Screaming Frog SEO Spider, програму, яку я використовую для сканування всіх внутрішніх URL-адрес веб-сайту та швидкого аудиту SEO.

Програма доступна для Windows, Mac і Linux. Це зроблено в JAVA, тому це мультиплатформність. Він має безкоштовну версію, яка обмежується скануванням до 500 внутрішніх URL-адрес веб-сайту.

Ліцензія виходить 99 фунтів, і я дійсно рекомендую її, тому що це дуже корисно.

Налаштування крикувальної жаби:

У «Павуку» активні всі варіанти, щоб повністю проаналізувати сайт (ми не ставимо ніяких обмежень).

У розділі "Виключити" ми можемо видалити розділ для прискорення процесу сканування або, якщо ми хочемо проаналізувати певну частину. У моєму випадку я збираюся видалити блог, щоб зробити його швидше.

У "Швидкості" можна налаштувати швидкість з кількістю потоків, які ви будете залишати відкритими одночасно. Зазвичай я залишаю п'ять, мені це подобається іноді, коли я дійсно поспішаю поставити більше, але ви повинні бути обережні, що іноді сервери блокують IP після того, як зробили багато запитів одночасно. Якщо сервер дозволяє це, підвищення кількості потоків збільшує швидкість.

Іншим цікавим варіантом є вибір іншого агента користувача, наприклад, коли ми хочемо сканувати сайт у мобільній версії, налаштувавши "Googlebot-Mobile", ми бачимо, як Googlebot бачить мобільну версію веб-сайту.

Ми також можемо налаштувати певний блок коду, який ми хочемо охопити, якщо він існує на веб-сайті, я використовую його більш ніж будь-що для пошуку в Google Analytics UA-XXXXXXX-X, щоб фільтрувати, які сторінки мають код відстеження (і в якому ні).

Ми аналізуємо, щоб пояснити закрилки програми.

(Поки павук працює)

У нижньому розділі показано, скільки URL-адрес аналізується одночасно, а в нижньому правому куті - скільки ще потрібно проаналізувати. Праворуч від "Очистити" відображається загальний проаналізований відсоток.

Як я видалив блог це буде досить швидко, але це багато в чому залежить від кількості URL-адрес, які має веб-сайт. Знову ж таки, якщо ми маємо більше 500 (це було всього 499), але він не буде показувати більше 500, якщо ми не настроїли ліцензію.

Аналіз клаптя

У внутрішній вкладці вона залишає нам інформацію про все, що було скановане, не тільки показує HTML, але і JavaScript, CSS, зображення, PDF і т.д.

Особливо я використовую внутрішній і зовнішній клапани, щоб фільтрувати, якщо у нас є помилка 404 на деякому сайті, сторінці або ресурсі, який не завантажується правильно. У цьому випадку це все добре і зовнішні теж (крім двох, які дали Connection відмовився). Ви можете дати повторне сканування Re-Spider.

Клап URI, який я використовую, щоб побачити, які сторінки дублюються. Кожен раз, коли Screaming Frog сканує вихідний код сторінки, вона повертає HASH, який унікально ідентифікує вміст. Буквено-цифровий код обчислюється з усього html-коду цієї веб-сторінки, тобто, якщо дві сторінки мають один і той же Hash, вони є дубльованими сторінками, які з різними URL-адресами мають однаковий вміст. Вони можуть бути відфільтровані і експортовані швидко, щоб відправити програмісту або змінити певний параметр, щоб вони перестали бути репліками.

Потім ми маємо лацкани з заголовків, описів, H1 і H2. На цих клаптях я перевіряю щось подібне в кожній з колон; це, в принципі, титули, зроблені у всіх розділах.

Фільтрація з "Відсутній" повідомляє нам, які сторінки відсутні. Це також стосується описів сторінок.

Те ж саме для ключових слів Meta, більше не використовуються для SEO (сама Bing), але це корисно для вилучення інформації: якщо вона відсутня, якщо є багато налаштованих (на оптимізацію - Keyword Stuffing); ми також можемо побачити, чи є вони дублікатами або якщо вони перевищують 56 символів. Можливо, це скорочується Google у видачах.

Швидко ви можете проаналізувати всі заголовки HTML-сторінок в Інтернеті, а в разі виявлення дублікатів, або якщо вони відсутні, ви можете експортувати їх і передавати програмісту, щоб виправити їх.

Аналогічний аналіз застосовується до описів мета.

У зображеннях ми можемо фільтрувати вище 100 Кб, щоб оптимізувати їх і поліпшити швидкість завантаження. Вони мають дуже довгий альтернативний текст, понад 100 символів. Це може статися з тим, хто намагався оптимізувати зображення та покласти ключові слова для інших, розуміючи, що це покращує позиціонування.

Найбільш використовуваним фільтром є той, що дозволяє побачити, які зображення не мають альтернативного тексту, щось спільне.

На вкладці "Директиви" мені подобається, які URL-адреси мають свою канонічну позначку, щоб побачити, чи є вона правильною, і які були канонізовані, щоб перевірити, чи правильно вказана URL-адреса, позначена як істина.

Потім ми можемо досліджувати сторінки, які не індексуються, якщо ми не хочемо індексувати будь-яку особливість або якщо є помилка, в якій мета-роботи не індексуються, а насправді ми хочемо його індексувати.

На вкладці "Користувацькі" є спеціальні фільтри, які налаштовуються для фільтрації коду переходів adwords або analytics, пікселя конверсії facebook або будь-якого іншого унікального коду, який ми хочемо побачити, якщо він знаходиться на всіх веб-сторінках.

Іншим цікавим варіантом є створення файлів Sitemap: швидкий, з кількома клацами ми можемо бути готовим до завантаження його на FTP.

Безумовно, існує більше функцій, які мене вислизають, я в основному хотів показати, що я використовую нормально, програма дуже повна, і якщо ви знайдете будь-яке цікаве, що я не назвав, я хотів би знати.

Автор: Хуан Ігнасіо Ретта

SEO аналітик цифрового маркетингу MD

# MDenseña - Крик жаби SEO Spider Tool

Оцініть цю публікацію

Останні повідомлення від Manuel Tacconi ( побачити все )