Огляд книги Леоніда Гроховського «SEO: керівництво по внутрішніх факторів»

  1. Глава № 1. «Перелінковка»
  2. Глава № 2. «Усунення дублікатів»
  3. Глава № 3. «Інструкції для пошукових систем»
  4. Глава № 4. «Робота з авторським контентом»
  5. На завершення

Хороших книг по SEO не так вже й багато Хороших книг по SEO не так вже й багато. Зате багато «водяних». Застаріла або неповна інформація, великий обсяг непотрібних або повторюваних даних, відсутність структури ...

Книга Леоніда Гроховського (з співавторами) «SEO: керівництво по внутрішніх факторів» - приємний виняток. В анотації її представляють «написана оптимізаторами для оптимізаторів». Відмінності книги: а) актуальність, б) лаконічність, в) структурованість.

Автори - провідні SEO-аналітики Росії ( «Оптімізм.Ру», Wikimart.ru, Sape.ru) і викладачі навчального центру ТопЕксперт.рф. Вони на власній «шкурі» відчули всі нюанси просування сайтів в рунеті. Виходячи вже з нашого досвіду - хоча книга про просування під Yandex, всі рекомендації по внутрішній оптимізації справедливі і для Google.com.ua.

Книга частково виросла з «SEO-альманаху 2010», складеного на основі експертних оцінок і думок 26 провідних seo-експертів. Короткий огляд альманаху читайте в статті ТОП-10 внутрішніх чинників ранжирування сайту .

Перейдемо до самої книги. Ключова відмінність від інших подібних робіт - принцип «менше теорії, більше практики». Тому глава «Введення в просування сайтів» займає всього лише 12 сторінок. Визначення понять, трохи про комплекной підході, і нічого зайвого.

Ми б не рекомендували книгу початківцям оптимізаторам. Хіба що нове покоління сеошників захоче відразу кинутися «грудьми в бій».

Глава № 1. «Перелінковка»

Ви знаєте, чим відрізняється перелинковка для просування високо-, середньо- і низькочастотних запитів? Що таке «куб», «кільце» і «зірка»? Чим відрізняється грамотна перелінковка на порталі, в інтернет-магазині, на корпоративному сайті? Навіщо потрібно оперувати дещо застарілим поняттям PageRank, коли ми вирішуємо завдання по грамотної перелинковке сайту?

Все це, а також правила, способи та тексти для перелинковки є в першому розділі книги.

Приклад. Вам потрібно просунути інтернет-магазин електроніки. Найбільш конверсійний трафік дають покупці, які шукають конкретну модель товару.

Якщо людина шукає «ноутбуки», насправді він шукає все, що завгодно - загальну інформацію, картинки, порівнює ціни і т.д. При запиті «ноутбук asus» користувач, ймовірно, вивчає модельних ряд, технічні характеристики і т.д. Людина, який набрав в пошуковику «ноутбук asus k50c» - це, швидше за все, «гарячий» клієнт.

Правило перелинковки для просування низькочастотних запитів виглядає так: сторінки товарів можуть посилатися тільки один на одного, не віддаючи вага сторінок розділу.

Глава № 2. «Усунення дублікатів»

Надзвичайно корисний розділ про те, як утворюються дублікати, ніж вони шкідливі для сайту, і, головне, що з ними робити. З конкретними методами і прикладами.

Відрізнити недосвідченого сеошника від фахівця можна по великій кількості дублів сторінки у видачі пошукових систем.

Це не видно з першого погляду, але здорово «псує карму» сайту. Розмивається контрольний вагу потрібної нам сторінки, вона перестає бути унікальною. Пошуковик замість потрібної сторінки може побачити дубль. Індексація сайту в цілому теж може опинитися під загрозою.

Найпростіший приклад. Головна сторінка сайту відображається по цілому переліку адрес:

  • site.ru
  • www.site.ru
  • site.ru/
  • www.site.ru/index.php і т.д.

В даному випадку ми бачимо аж 4 дубля головної сторінки. В такому випадку необхідно налаштувати 301 редирект з трьох з них на одну, обрану головною версією сторінки.

Глава № 3. «Інструкції для пошукових систем»

Про існування файлів robots.txt і sitemap.xml знають, здається, все. А то, що і для чого в них писати - не всі. Як перетворити ці інструкції в важливий інструмент просування - описано в цьому розділі.

Наприклад, функції файлу robots.txt:

  • вказівка ​​головного дзеркала сайту
  • виключення зайвих сторінок з індексу
  • відмова в індексації небажаним роботам
  • вказівка ​​адреси карти сайту.

Скількома функціями robots.txt ви користуєтеся? :)

Наприклад, якщо нам потрібно закрити від індексації сторінку сайту, де зібрані посилання на зовнішні ресурси, ми можемо закрити її директивою Disallow. Як це виглядає:

Disallow: /page.html

У цьому розділі міститься і спірний нюанс: директиви Allow, Clean-Param, а також спецсимволи * і $ вказуються як справедливі тільки для Yandex. З нашого досвіду, вони працюють і для Google.

Глава № 4. «Робота з авторським контентом»

Проблема краденого контенту - бич Інтернету № 1. Не дивлячись на всі алгоритми, методів боротьби з ним або хоч трохи достовірного визначення першоджерела немає.

Однак в книзі закладена цікава ідея. Для визначення нашої статті як першоджерела, часто досить, щоб пошуковик проіндексував її в першу чергу і вважав надійної і релевантною.

Для цього всього достатньо просунути декількома посиланнями статтю в ТОП за фрагментом тексту. Про правильній організації цього процесу читайте в книзі :)

На завершення

Я привела тільки деякі цікаві моменти з книги. Не буду відбирати у авторів хліб, а вас, дорогі читачі, позбавляти стимулу прочитати цю чудову книгу!

Скачати книгу . Перші 3000 книг Леонід дає безкоштовно. Ми не знаємо, скільки там залишилося, тому качайте, поки є :).

Що таке «куб», «кільце» і «зірка»?
Чим відрізняється грамотна перелінковка на порталі, в інтернет-магазині, на корпоративному сайті?
Навіщо потрібно оперувати дещо застарілим поняттям PageRank, коли ми вирішуємо завдання по грамотної перелинковке сайту?
Txt ви користуєтеся?