Jak zoptymalizować plik Robots.txt WordPress dla SEO

  1. Dlaczego Robots.txt?
  2. Zobaczmy, jak zoptymalizować WordPress Robots.txt dla SEO
  3. Optymalizacja pliku Robots.text
  4. Christine

Jeśli pracujesz nad SEO swojej witryny, wiedząc, jak zoptymalizować plik robots.txt WordPress dla SEO jest czymś, o czym musisz pamiętać. Wszystkie wyszukiwarki ostatecznie szukają tego pliku, aby wykonać instrukcje przed zaindeksowaniem witryny, a także poszukać w tym pliku mapy witryny XML. Jeśli pracujesz nad SEO swojej witryny, wiedząc, jak zoptymalizować plik robots

Jak zoptymalizować plik Robots.txt WordPress dla SEO

Dlaczego Robots.txt?

Głównym celem pliku Robots.txt jest ograniczenie dostępu do witryny przez roboty wyszukiwarek. Jest to plik tekstowy, który można otworzyć i utworzyć w prawie każdym notatniku lub edytorze HTML lub edytorze tekstu.

Plik Robots.txt zwykle znajduje się w folderze głównym witryny. Będziesz musiał połączyć się z witryną za pomocą klienta FTP lub za pomocą menedżera plików cPanel, aby go wyświetlić.

Jeśli nie masz pliku Robots.txt w katalogu głównym witryny, zawsze możesz go utworzyć. Wszystko, co musisz zrobić, to utworzyć nowy plik tekstowy na komputerze i zapisać go jako Robots.txt. Następnie po prostu prześlij go do folderu głównego witryny.

Zobaczmy, jak zoptymalizować WordPress Robots.txt dla SEO

Nie używaj Robots.txt do ukrywania niskiej jakości treści lub zaprzestania indeksowania kategorii i daty. Wolisz używać wtyczek WordPress, takich jak WordPress SEO Plugin By Yoast i Roboty Meta, aby dodać metatagi nofollow i noindex. Powodem jest to, że Robots.txt nie uniemożliwia robotom wyszukiwarek indeksowania Twojej witryny, może jedynie ograniczyć indeksowanie.

Aby rozpocząć, nazwij swój plik Robots.txt i dodaj go do warstwy głównej witryny.

Format pliku robots.txt jest właściwie całkiem prosty. Pierwsza linia zwykle nazywa agenta użytkownika. Nazwa użytkownika to nazwa bota wyszukiwania, z którym próbujesz się komunikować. Na przykład Googlebot lub Bingbot. Możesz użyć gwiazdki *, aby poinstruować wszystkie boty.

Następna linia zawiera instrukcje „Zezwalaj” lub „Nie zezwalaj” dla wyszukiwarek, więc wiedzą, które części mają być indeksowane, a które nie mają być indeksowane.

Agent użytkownika kieruje instrukcje do botów wyszukiwania.

Polecenia Zezwalaj / Nie zezwalaj określają ograniczenia. Są one używane do wiązania botów z katalogu witryny, w tym ze strony głównej.

W używanych dyrektywach rozróżniana jest wielkość liter, więc upewnij się, że nazwa podana w Robots.txt jest dokładnie zgodna z nazwą twojego folderu.

Rozważ odrzucenie readme.html. Plik Readme.html może zostać użyty przez kogoś, kto wie, której wersji WordPressa używasz, przeglądając go, dzięki czemu będą mogli włamać się na twoją stronę. Zabraniając tego, jesteś bezpieczny przed tymi atakami.

Po prostu napisz

Disallow: /readme.html

Powinieneś również odrzucić katalog wtyczek WordPress ze względów bezpieczeństwa.

Po prostu napisz

Disallow: / wp-content / plugins /

Rozważ dodanie map witryn XML swojej witryny do Robots.txt w celu lepszego i szybszego indeksowania postów na blogu.

Optymalizacja pliku Robots.text

User-agent: * Disallow: / cgi-bin / Disallow: / wp-admin / Disallow: / komentarze / feed / Disallow: / trackback / Disallow: /index.php Disallow: /xmlrpc.php Disallow: / wp-content / plugins / User-agent: NinjaBot Zezwól: / User-agent: Mediapartners-Google * Zezwól: / User-agent: Googlebot-Image Zezwalaj: / wp-content / uploads / User-agent: Adsbot-Google Zezwalaj: / User-agent : Googlebot-Mobile Allow: / Sitemap: http: // www. onlineshouter.com/sitemapindex.xml Mapa strony: http://www.onlineshouter.com/sitemap-image

Christine

Christine pisze dla ludzi, którzy szukają wiedzy na temat SEO, blogowania, marketingu internetowego, gadżetów i aplikacji internetowych.

Najnowsze posty Christine ( widzieć wszystko )

Związane z

Txt?
Txt?