Як оптимізувати файл WordPress Robots.txt для SEO
- Чому Robots.txt?
- Давайте подивимося, як оптимізувати WordPress Robots.txt для SEO
- Оптимізація файлів Robots.text
- Христина
Якщо ви працюєте на вашому сайті SEO, знаючи про те, як оптимізувати файл WordPress robots.txt для SEO є те, що ви повинні мати на увазі. Всі пошукові системи в кінцевому рахунку шукати цей файл, щоб взяти інструкції перед скануванням вашого сайту, а також шукати XML-карту сайту в цьому файлі.
Як оптимізувати файл WordPress Robots.txt для SEO
Чому Robots.txt?
Основна мета файлу Robots.txt - обмежити доступ до вашого сайту роботами пошукових систем. Це текстовий файл, який можна відкрити і створити практично в будь-якому блокноті або редакторі HTML або текстовому процесорі.
Файл Robots.txt зазвичай знаходиться у кореневій теці вашого сайту. Вам потрібно підключитися до свого сайту за допомогою FTP-клієнта або за допомогою файлового менеджера cPanel для його перегляду.
Якщо у кореневому каталозі вашого сайту немає файлу Robots.txt, ви завжди можете створити його. Вам потрібно лише створити новий текстовий файл на комп'ютері та зберегти його як файл Robots.txt. Потім просто завантажте його в кореневу папку вашого сайту.
Давайте подивимося, як оптимізувати WordPress Robots.txt для SEO
Не використовуйте файл Robots.txt, щоб приховати вміст низької якості або зупинити індексацію категорії та дати. Краще використовувати плагіни WordPress WordPress SEO плагін за Yoast і Роботи Meta для додавання метатегів nofollow і noindex. Причина полягає в тому, що Robots.txt не заважає роботам пошукових систем сканувати ваш сайт, він може обмежити лише індексацію.
Щоб почати, назвіть файл Robots.txt і додайте його до кореневого шару вашого сайту.
Файл формату robots.txt насправді досить простий. Перший рядок зазвичай іменує агента користувача. Користувацький агент фактично є ім'ям пошукового робота, з яким ви намагаєтеся спілкуватися. Наприклад, Googlebot або Bingbot. Ви можете використовувати зірочку *, щоб доручити всім роботам.
Наступний рядок слідує з інструкціями "Дозволити" або "Заборонити" для пошукових систем, щоб вони знали, які частини ви хочете індексувати, і які не потрібно індексувати.
Агент користувача звертається до інструкцій для пошукових роботів.
Команди "Дозволити / заборонити" визначають обмеження. Вони використовуються для прив'язки ботів до каталогу сайту, включаючи домашню сторінку.
Використані директиви чутливі до регістру, тому переконайтеся, що ім'я, вказане в файлі Robots.txt, точно відповідає імені папки.
Розгляньте заборону readme.html. Файл Readme.html може використовуватися кимось, щоб дізнатися, яку версію WordPress ви використовуєте, переглянувши її, таким чином вони зможуть зламати ваш сайт. Забороняючи його, ви захищені від цих атак.
Просто напишіть
Заборонити: /readme.html
Ви також повинні заборонити каталог плагінів WordPress з міркувань безпеки.
Просто напишіть
Заборонити: / wp-content / plugins /
Розгляньте можливість додавання XML-сайтів сайту до файлу Robots.txt для кращої та швидшої індексації публікацій у вашому блозі.
Оптимізація файлів Robots.text
Агент користувача: * Disallow: / cgi-bin / Disallow: / wp-admin / Disallow: / comments / feed / Disallow: / trackback / Disallow: /index.php Disallow: /xmlrpc.php Disallow: / wp-content / плагіни / User-agent: NinjaBot Дозволити: / User-agent: Mediapartners-Google * Дозволити: / User-agent: Googlebot-Image Дозволити: / wp-content / uploads / User-agent: Adsbot-Google Allow: / User-agent: : Googlebot-Mobile Дозволити: / Sitemap: http: // www. onlineshouter.com/sitemapindex.xml Карта сайту: http://www.onlineshouter.com/sitemap-image
Христина
Крістін пише для людей, які шукають знання про SEO, блоги, інтернет-маркетинг, гаджети та веб-програми.
Останні повідомлення від Christine ( бачити все )
Пов'язані
Txt?Txt?