Огляд книги Леоніда Гроховського «SEO: керівництво по внутрішніх факторів»
- Глава № 1. «Перелінковка»
- Глава № 2. «Усунення дублікатів»
- Глава № 3. «Інструкції для пошукових систем»
- Глава № 4. «Робота з авторським контентом»
- На завершення
Хороших книг по SEO не так вже й багато. Зате багато «водяних». Застаріла або неповна інформація, великий обсяг непотрібних або повторюваних даних, відсутність структури ...
Книга Леоніда Гроховського (з співавторами) «SEO: керівництво по внутрішніх факторів» - приємний виняток. В анотації її представляють «написана оптимізаторами для оптимізаторів». Відмінності книги: а) актуальність, б) лаконічність, в) структурованість.
Автори - провідні SEO-аналітики Росії ( «Оптімізм.Ру», Wikimart.ru, Sape.ru) і викладачі навчального центру ТопЕксперт.рф. Вони на власній «шкурі» відчули всі нюанси просування сайтів в рунеті. Виходячи вже з нашого досвіду - хоча книга про просування під Yandex, всі рекомендації по внутрішній оптимізації справедливі і для Google.com.ua.
Книга частково виросла з «SEO-альманаху 2010», складеного на основі експертних оцінок і думок 26 провідних seo-експертів. Короткий огляд альманаху читайте в статті ТОП-10 внутрішніх чинників ранжирування сайту .
Перейдемо до самої книги. Ключова відмінність від інших подібних робіт - принцип «менше теорії, більше практики». Тому глава «Введення в просування сайтів» займає всього лише 12 сторінок. Визначення понять, трохи про комплекной підході, і нічого зайвого.
Ми б не рекомендували книгу початківцям оптимізаторам. Хіба що нове покоління сеошників захоче відразу кинутися «грудьми в бій».
Глава № 1. «Перелінковка»
Ви знаєте, чим відрізняється перелинковка для просування високо-, середньо- і низькочастотних запитів? Що таке «куб», «кільце» і «зірка»? Чим відрізняється грамотна перелінковка на порталі, в інтернет-магазині, на корпоративному сайті? Навіщо потрібно оперувати дещо застарілим поняттям PageRank, коли ми вирішуємо завдання по грамотної перелинковке сайту?
Все це, а також правила, способи та тексти для перелинковки є в першому розділі книги.
Приклад. Вам потрібно просунути інтернет-магазин електроніки. Найбільш конверсійний трафік дають покупці, які шукають конкретну модель товару.
Якщо людина шукає «ноутбуки», насправді він шукає все, що завгодно - загальну інформацію, картинки, порівнює ціни і т.д. При запиті «ноутбук asus» користувач, ймовірно, вивчає модельних ряд, технічні характеристики і т.д. Людина, який набрав в пошуковику «ноутбук asus k50c» - це, швидше за все, «гарячий» клієнт.
Правило перелинковки для просування низькочастотних запитів виглядає так: сторінки товарів можуть посилатися тільки один на одного, не віддаючи вага сторінок розділу.
Глава № 2. «Усунення дублікатів»
Надзвичайно корисний розділ про те, як утворюються дублікати, ніж вони шкідливі для сайту, і, головне, що з ними робити. З конкретними методами і прикладами.
Відрізнити недосвідченого сеошника від фахівця можна по великій кількості дублів сторінки у видачі пошукових систем.
Це не видно з першого погляду, але здорово «псує карму» сайту. Розмивається контрольний вагу потрібної нам сторінки, вона перестає бути унікальною. Пошуковик замість потрібної сторінки може побачити дубль. Індексація сайту в цілому теж може опинитися під загрозою.
Найпростіший приклад. Головна сторінка сайту відображається по цілому переліку адрес:
- site.ru
- www.site.ru
- site.ru/
- www.site.ru/index.php і т.д.
В даному випадку ми бачимо аж 4 дубля головної сторінки. В такому випадку необхідно налаштувати 301 редирект з трьох з них на одну, обрану головною версією сторінки.
Глава № 3. «Інструкції для пошукових систем»
Про існування файлів robots.txt і sitemap.xml знають, здається, все. А то, що і для чого в них писати - не всі. Як перетворити ці інструкції в важливий інструмент просування - описано в цьому розділі.
Наприклад, функції файлу robots.txt:
- вказівка головного дзеркала сайту
- виключення зайвих сторінок з індексу
- відмова в індексації небажаним роботам
- вказівка адреси карти сайту.
Скількома функціями robots.txt ви користуєтеся? :)
Наприклад, якщо нам потрібно закрити від індексації сторінку сайту, де зібрані посилання на зовнішні ресурси, ми можемо закрити її директивою Disallow. Як це виглядає:
Disallow: /page.html
У цьому розділі міститься і спірний нюанс: директиви Allow, Clean-Param, а також спецсимволи * і $ вказуються як справедливі тільки для Yandex. З нашого досвіду, вони працюють і для Google.
Глава № 4. «Робота з авторським контентом»
Проблема краденого контенту - бич Інтернету № 1. Не дивлячись на всі алгоритми, методів боротьби з ним або хоч трохи достовірного визначення першоджерела немає.
Однак в книзі закладена цікава ідея. Для визначення нашої статті як першоджерела, часто досить, щоб пошуковик проіндексував її в першу чергу і вважав надійної і релевантною.
Для цього всього достатньо просунути декількома посиланнями статтю в ТОП за фрагментом тексту. Про правильній організації цього процесу читайте в книзі :)
На завершення
Я привела тільки деякі цікаві моменти з книги. Не буду відбирати у авторів хліб, а вас, дорогі читачі, позбавляти стимулу прочитати цю чудову книгу!
Скачати книгу . Перші 3000 книг Леонід дає безкоштовно. Ми не знаємо, скільки там залишилося, тому качайте, поки є :).
Що таке «куб», «кільце» і «зірка»?Чим відрізняється грамотна перелінковка на порталі, в інтернет-магазині, на корпоративному сайті?
Навіщо потрібно оперувати дещо застарілим поняттям PageRank, коли ми вирішуємо завдання по грамотної перелинковке сайту?
Txt ви користуєтеся?