Wordpress дубляваны кантэнт - рашэнні задачы SEO з Robots.txt
Дубляваны кантэнт у працэсе аптымізацыі SEO з'яўляецца адной з асноўных праблем, з якімі сутыкаюцца карыстальнікі WordPress. Гэта можа быць асноўным фактарам у страты рангу з Google, ўсё з-за уласцівых катэгорыі і тэгаў старонак, якія ўбудаваныя ў WordPress. Гэты просты файл robots.txt дапаможа ліквідаваць гэтыя памылкі.
Але вы можаце вырашыць гэтую праблему з дапамогай robots.txt.what гэта робаты Txt? Робаты TXT ўяўляе сабой тэкставы файл, якія прыходзяць у выкарыстанні , каб захаваць кантроль над пошукавымі сістэмамі ботамі ў той час як яны поўзаюць свой блог ці website.you можа праверыць свой файл robots.txt, увёўшы http://www.yoursite.com/robots.txt. калі не стварыць і загрузіць на свой вэб-сайт каранёвай дырэкторыі.
Дзякуючы Mike ў WebTricksBlog для гэтага дзіўнага Robots.txt наканечніка ,
Проста скапіруйце і ўстаўце наступны тэкст у файл robots.txt ў каранёвым каталогу вашага WordPress сайта. Не забудзьцеся змяніць апошнюю радок кода ў дамен!
What гэта робаты Txt?