Дубльований вміст Wordpress - Вирішення проблеми SEO з Robots.txt
Дублювання вмісту під час оптимізації SEO є основною проблемою, з якою стикаються користувачі WordPress. Це може бути важливим фактором втрати вашої позиції в Google, все з-за притаманних категоріям і тегам сторінок, які вбудовані в WordPress. Цей простий файл robots.txt допоможе усунути ці помилки.
Але ви можете виправити цю проблему за допомогою robots.txt.what є robots txt? Роботи txt - це текстові файли, які використовуються для збереження контролю над ботами пошукових систем, коли вони сканують ваш блог або веб-сайт. Ви можете перевірити ваш файл robots.txt, ввівши http://www.yoursite.com/robots.txt. якщо у вас немає створення та завантажено на кореневий каталог вашого веб-сайту.
Завдяки Майку WebTricksBlog для цієї чудової версії Robots.txt .
Просто скопіюйте та вставте наступний текст у файл robots.txt в корені вашого сайту WordPress. Не забудьте змінити останній рядок коду на свій домен!
What є robots txt?