Внутрішня оптимізація: правильне просування сайту

  1. Зайву інформацію в індексі - під заборону!
  2. Title повинні бути різними
  3. Ще один крок: ліквідувати спам і непотрібні посилання
  4. Плагіат в контенті - краще не треба
  5. Сайт потрапив під фільтр

Сьогодні, з появою безлічі різних систем, всі кому не лінь, почали займатися просуванням сайтів . Раніше, буквально чотири роки тому, ця робота була прерогативою тільки фахівців-оптимізаторів. Велика кількість сайтів має очевидні недоробки. Займаючись розробкою сайту, багато користувачів намагаються просунути його на більш високі позиції в пошукових системах. І це цілком би вдалося навіть за запитами з середньою конкуренцією - але зазвичай перешкодою є кілька легкоустранімих недоліків. Їх можна ліквідувати буквально за десять хвилин, знаючи, в чому проблема і як з нею впоратися. Фахівці-сеошник без праці вирішать це питання, тоді як новачкам завдання здається нездійсненним. Хоча досить просто направити зусилля в потрібному напрямку, і підвищення трафіку і рейтингу гарантовано.

Починаючи розмову про внутрішню оптимізацію, розставимо акценти. У тому випадку, якщо немає бажання займатися виявленням незрозумілою помилки самостійно, слід довірити цю справу знавцям. Вони точно виявлять всі перешкоди на шляху до лідерства у видачі пошукової системи. Але деякі власники сайтів все ж прагнуть самі у всьому розібратися, намагаючись отримати будь-яку інформацію в сфері СЕО. Ця стаття надасть основні відомості про найбільш значущих промахах в роботі з внутрішнім ранжированием сайту.

Пошуковий робот завжди визначить сторінки www.site.ru/page.html, site.ru/page.html і site / page.html як не мають один до одного ніякого відношення. Але при розробці сайту цей момент частенько випадає з поля зору. Уявіть, пошуковий павук заходить на сайт і бачить кілька абсолютно не відрізняються один від одного сторінок, вся різниця полягає лише в адресі (URL). Що він зробить в такій ситуації? Дуже просто - займеться їх об'єднанням (склеюванням) і, врешті-решт, вибере сторінку, яка стане основною і буде індексуватися. Хаотична ненаправленная склейка стане причиною того, що в індексі почнуть відображатися сторінки як зі Слеш, так і без них, як з www, так і з відсутністю оного. Наслідки не катастрофічні, але неприємні - пошуковик злегка розчарується в просуванні сайту, та й куплені посилання будуть працювати не в повній мірі: посилання, наприклад, придбана на www.site.ru/page.html, а в індексі відобразиться не зовсім вона - без www. діємо:

  • головне дзеркало треба вказати як директиву Host в robots.txt.
  • показати «Яндекс.Вебмайстер» головне дзеркало (шлях через настройку індексування)
  • налаштувати примусове напрямок з 301 кодом з усіх клонів на ті сторінки, які повинні індексуватися. Воно проводиться за допомогою системи управління контентом або використовуються веб-серверні службові файли. При залученні Apache HTTP застосовується файл .htacess.

Зайву інформацію в індексі - під заборону!

Пошукові павуки не повинні індексувати всі підряд. Зайвий мотлох є сторінками з пошуковими результатами по сайту, корзина, гостьова книга і все те, що позбавлене корисного контенту і не повинно відображатися у видачі Google і Яндекса. Заборона на потрапляння в індекс можна влаштувати, застосувавши директиву Disallow в robots.txt. При цьому обов'язково слід переконатися, що всі важливі веб-документи відкриті для індексування. При неправильному просуванні ніяка карколомна розробка дизайну не допоможе.

Title повинні бути різними

Заголовки сторінок, з подачі системи управління контентом, частенько бувають неунікальні і абсолютно неприйнятними. Це може стати причиною неоптимальною склейки або ігнорування в індексі. Багато творців сайтів власноруч вносять неправильні тайтли, вважаючи створення оригінальних заголовків нудним заняттям. Сніпетти досить часто складаються пошуковими системами із застосуванням Title, природно, що число відвідувачів і кількість кліків безпосередньо залежать від їх добротності. Отже:

  • всі без винятку титли сторінок просто зобов'язані відрізнятися один від одного
  • ключі повинні бути присутніми у всіх заголовках, причому важливо правильно підібране побудова фрази, простим перерахуванням тут не відбудешся
  • навіть Яндекс спочатку описує сторінку в тайтла, а потім вже видає назву сайту (і то не завжди, звичайно на давніх сторінках). Ім'я сайту взагалі краще не вживати в Title, або позначати, відокремлюючи знаком тире, в кінці запису.

Ще один крок: ліквідувати спам і непотрібні посилання

Досить велика кількість сайтів до сих пір вражає величезними статтями з «супероптімізаціей», мікроскопічними або зовсім прихованими текстами, великою кількістю заголовків Н1 на кожній сторінці, безліччю пов'язаних одна з одною ключових слів - через кому - це вже не входить ні в які рамки і зовсім застаріло . Ключі в текстах повинні бути в оптимальній кількості і не вибиватися з контексту. Потрібно, щоб зміст статей було цікавим в першу чергу для людей, а не для роботів, так як пошукові системи теж стали більше орієнтуватися на людину. Продаж посилань і одночасне просування сайту в топові - ще один неправильний хід. значить:

  • ліквідуємо переспамленний контент разом з помилками верстки
  • позбавляємося від вихідних посилань і закриваємо непотрібне тегами nofollow і noindex
  • звільняємося від лінкфармов, великих «лінкопомоек» і непотрібних посилальних обмінників
  • відправляємо «в топку» все «продажні» статті

Плагіат в контенті - краще не треба

Щоб вивести сайт в лідери видачі пошукової системи, його необхідно наповнити унікальним контентом і розробити дизайн в неповторному стилі . Винятків з цього правила немає, це вкрай важливий крок в просуванні сайту по «сходах» видачі вгору. Також важливо:

  • прибрати всі чужі тексти-дублікати, розмістити статті власного твору
  • якщо контент написаний власноруч, слід перевірити його на предмет запозичення іншими сайтами - на сервісі http://www.copyscape.com.
  • додавати свіжі статті тільки після знайомства з ними «Яндекс.Вебмайстер», щоб зберегти за собою першість (шлях від «Вмісту сайту» до «Оригінальним текстам»)

Сайт потрапив під фільтр

Якщо не пощастило, і пошуковик відправив сайт під фільтр (Яндекс «лається» зазвичай за допомогою афіліат-фільтра, «Ти останній», «АГС» і т.д.) - треба зробити все можливе, щоб привести ресурс в належний вигляд, щоб розробка сайту не опинилася марною тратою часу.

Щоб позбутися від усіх недоліків потрібно днями і ночами сидіти за комп'ютером, вишукуючи «тарганів», або передати цю прерогативу комусь, хто зможе це зробити за винагороду.

Що він зробить в такій ситуації?