Korzystanie z robotów WordPress.plik txt do poprawy SEO

Niedawno jeden z naszych czytelników poprosił nas o wskazówki, jak zoptymalizować roboty.plik txt do poprawy SEO.

Roboty.plik txt mówi wyszukiwarkom, jak indeksować witrynę, co czyni ją niezwykle potężnym narzędziem SEO.

W tym artykule pokażemy, jak stworzyć idealne roboty.plik txt dla SEO.

Using WordPress robots.txt file to improve SEO

Czym są roboty.plik txt?

Roboty.txt to plik tekstowy, który właściciele witryn mogą utworzyć, aby poinformować boty wyszukiwarek, jak indeksować i indeksować strony w swojej witrynie.

Jest zwykle przechowywany w katalogu głównym, znanym również jako główny folder Twojej witryny. Podstawowy format dla robotów.plik txt wygląda następująco:

User-agent: [nazwa użytkownika agenta]
Disallow: [URL string not to be crawled]

User-agent: [nazwa użytkownika agenta]
Allow: [URL string to be crawled]


Sitemap: [URL Twojej mapy witryny XML]

Możesz mieć wiele linii instrukcji, aby zezwolić lub zablokować określone adresy URL i dodać wiele map witryn. Jeśli nie odmówisz adresu URL, boty Wyszukiwarek zakładają, że mogą go indeksować.

Oto, co roboty.przykładowy plik txt może wyglądać tak:

User-Agent: *
Allow: / wp-content / uploads/
Disallow: / wp-content / plugins/
Disallow: / wp-admin/

Mapa strony: https://example.com/sitemap_index.xml

W powyższych robotach.przykład txt, pozwoliliśmy wyszukiwarkom indeksować i indeksować pliki w naszym folderze przesyłania WordPress.

Następnie zabroniliśmy botom wyszukiwania indeksowania i indeksowania wtyczek i folderów administracyjnych WordPress.

Na koniec podaliśmy adres URL naszej mapy witryny XML.

Potrzebujesz robota?plik txt dla Twojej witryny WordPress?

Jeśli nie masz robota.plik txt, a następnie wyszukiwarki nadal będą indeksować i indeksować Twoją witrynę. Nie będziesz jednak w stanie powiedzieć wyszukiwarkom, których stron lub folderów nie powinny indeksować.

Nie będzie to miało większego wpływu, gdy po raz pierwszy zaczynasz blog i nie masz zbyt wielu treści.

Jednak wraz z rozwojem witryny i dużą ilością treści, prawdopodobnie chciałbyś mieć lepszą kontrolę nad tym, jak twoja witryna jest indeksowana i indeksowana.

Oto dlaczego.

Boty wyszukiwania mają limit indeksowania dla każdej witryny.

Oznacza to, że indeksują określoną liczbę stron podczas sesji indeksowania. Jeśli nie zakończą indeksowania wszystkich stron w Twojej witrynie, wrócą i wznowią indeksowanie w następnej sesji.

Może to spowolnić indeksowanie witryny.

Możesz to naprawić, uniemożliwiając botom wyszukiwania próby indeksowania niepotrzebnych stron, takich jak strony administratora WordPress, Pliki Wtyczek i folder motywów.

Wyłączając niepotrzebne strony, zapisujesz limit indeksowania. Pomaga to wyszukiwarkom indeksować jeszcze więcej stron w Twojej witrynie i indeksować je tak szybko, jak to możliwe.

Kolejny dobry powód do korzystania z robotów.plik txt jest, gdy chcesz zatrzymać wyszukiwarki z indeksowania postu lub strony w swojej witrynie.

Nie jest to najbezpieczniejszy sposób ukrywania treści przed opinią publiczną, ale pomoże Ci zapobiec ich pojawianiu się w wynikach wyszukiwania.

Co robi idealne roboty.plik txt wygląda jak?

Wiele popularnych blogów używa bardzo prostych robotów.plik txt. Ich zawartość może się różnić w zależności od potrzeb konkretnej witryny:

User-agent: *
Disallow:
 
Mapa strony: http://www.example.com/post-sitemap.xml
Mapa strony: http://www.example.com/page-sitemap.xml

Te roboty.plik txt pozwala wszystkim botom indeksować całą zawartość i zapewnia im link do map witryn XML.

W przypadku witryn WordPress zalecamy następujące zasady w robotach.plik txt:

User-Agent: *
Allow: / wp-content / uploads/
Disallow: / wp-content / plugins/
Disallow: / wp-admin/
Disallow: / readme.html
Disallow: / Poleć/

Mapa strony: http://www.example.com/post-sitemap.xml
Mapa strony: http://www.example.com/page-sitemap.xml

To powiedzieć boty wyszukiwania indeksować wszystkie obrazy i pliki WordPress. Uniemożliwia boty wyszukiwania z indeksowania plików wtyczek WordPress, obszaru administracyjnego WordPress, pliku readme WordPress i linków partnerskich.

Dodając mapy witryn do robotów.plik txt, ułatwiasz botom Google znalezienie wszystkich stron w Twojej witrynie.

Teraz, gdy wiesz, co idealne roboty.plik txt wygląda, rzućmy okiem na to, jak można utworzyć roboty.plik txt w WordPress.

Jak stworzyć robota.plik txt w WordPress?

Istnieją dwa sposoby tworzenia robotów.plik txt w WordPress. Możesz wybrać metodę, która działa najlepiej dla ciebie.

Metoda 1: Edycja Robotów.plik txt za pomocą All in One SEO

All in One SEO znany również jako AIOSEO to najlepsza wtyczka SEO WordPress na rynku używana przez ponad 2 miliony stron internetowych.

Jest łatwy w użyciu i wyposażony w roboty.generator plików txt.

Jeśli nie masz jeszcze zainstalowanej wtyczki AIOSEO, możesz zobaczyć nasz przewodnik krok po kroku, jak zainstalować wtyczkę WordPress.

Uwaga: Darmowa wersja AIOSEO jest również dostępna i ma tę funkcję.

Po zainstalowaniu i aktywacji wtyczki możesz jej użyć do tworzenia i edycji robotów.plik txt bezpośrednio z obszaru administracyjnego WordPress.

Po prostu przejdź do Wszystko w jednym SEO ” narzędzia aby edytować swoje roboty.plik txt.

AIOSEO robots.txt editor

Najpierw musisz włączyć opcję edycji, klikając ’ Włącz niestandardowe roboty.txt ’ Przełącz na niebieski.

Po włączeniu tego przełącznika możesz utworzyć niestandardowe roboty.plik txt w WordPress.

AIOSEO enable custom robots.txt

Wszystko w jednym SEO pokaże istniejące roboty.plik txt w ’ Robots.sekcja podglądu txt u dołu ekranu.

Ta wersja pokaże domyślne reguły, które zostały dodane przez WordPress.

Robots.txt default rules

Te domyślne reguły mówią wyszukiwarkom, aby nie indeksowały podstawowych plików WordPress, umożliwiają botom indeksowanie całej zawartości i zapewniają im link do map witryn XML.

Teraz możesz dodać własne reguły, aby ulepszyć swoje roboty.txt dla SEO.

Aby dodać regułę, wprowadź agenta użytkownika w polu „Agent użytkownika”. Użycie * zastosuje regułę do wszystkich agentów Użytkownika.

Następnie wybierz, czy chcesz „zezwolić”, czy „zakazać” indeksowania wyszukiwarek.

Następnie wprowadź nazwę pliku lub ścieżkę katalogu w polu „Ścieżka katalogu”.

Add rule in robots.txt

Reguła zostanie automatycznie zastosowana do Twoich robotów.txt. Aby dodać kolejną regułę, kliknij przycisk „Dodaj regułę”.

Zalecamy dodawanie reguł, dopóki nie stworzysz idealnych robotów.format txt udostępniliśmy powyżej.

Twoje niestandardowe zasady będą wyglądać tak.

Robots.txt custom rules file

Po zakończeniu nie zapomnij kliknąć przycisku „Zapisz zmiany”, aby zapisać zmiany.

Metoda 2. Edytuj Roboty.plik TXT ręcznie za pomocą FTP

W tej metodzie będziesz musiał użyć klienta FTP do edycji robotów.plik txt.

Po prostu połącz się z kontem hostingowym WordPress za pomocą klienta FTP.

Gdy w środku, będzie można zobaczyć roboty.plik txt w folderze głównym Twojej witryny.

FTP connection robots.txt

Jeśli go nie widzisz, prawdopodobnie nie masz robota.plik txt.

W takim przypadku możesz go po prostu utworzyć.

FTP connection create robots.txt

Roboty.txt to zwykły plik tekstowy, co oznacza, że możesz go pobrać na komputer i edytować za pomocą dowolnego edytora tekstu, takiego jak Notatnik lub TextEdit.

Po zapisaniu zmian możesz przesłać je z powrotem do folderu głównego witryny.

Jak przetestować swoje roboty.plik txt?

Po stworzeniu swoich robotów.plik txt, zawsze dobrym pomysłem jest przetestowanie go za pomocą robota.narzędzie do testowania txt.

Jest wiele robotów.txt tester narzędzia tam, ale zalecamy korzystanie z jednego wewnątrz Google Search Console.

Najpierw musisz połączyć swoją witrynę z Google Search Console. Jeśli jeszcze tego nie zrobiłeś, zobacz nasz przewodnik, Jak dodać swoją witrynę WordPress do Google Search Console.

Następnie możesz użyć narzędzia do testowania robotów Google Search Console.

Select website property robots.txt tester

Po prostu wybierz swoją nieruchomość z listy rozwijanej.

Narzędzie automatycznie pobierze roboty Twojej witryny.plik txt i podświetl błędy i ostrzeżenia, jeśli je znajdziesz.

Robots.txt tester results

Myśli Końcowe

Celem optymalizacji robotów.plik txt ma zapobiegać indeksowaniu stron przez wyszukiwarki, które nie są publicznie dostępne. Na przykład strony w folderze wp-plugins lub strony w folderze administracyjnym WordPress.

Częstym mitem wśród ekspertów SEO jest to, że blokowanie kategorii, tagów i stron archiwalnych WordPress poprawi szybkość indeksowania i spowoduje szybsze indeksowanie i wyższe rankingi.

To nieprawda. Jest to również niezgodne z wytycznymi dla webmasterów Google.

Zalecamy przestrzeganie powyższych robotów.format txt do tworzenia robotów.plik txt dla Twojej strony.

Mamy nadzieję, że ten artykuł pomógł Ci dowiedzieć się, jak zoptymalizować roboty WordPress.plik txt dla SEO. Możesz również zobaczyć nasz najlepszy przewodnik SEO WordPress i najlepsze narzędzia SEO WordPress, aby rozwijać swoją stronę.

Jeśli podoba Ci się ten artykuł, zasubskrybuj nasz kanał YouTube dla samouczków wideo WordPress. Znajdziesz nas również na Twitterze i Facebooku.

You May Also Like

Jak naprawić nieprawidłowy błąd JSON w WordPress (Przewodnik dla początkujących)

W artykule: Co powoduje błąd „nieprawidłowa odpowiedź JSON” w WordPress?1. Sprawdź adresy…

Jak zmienić kolor linku w WordPress (poradnik dla początkujących)

W artykule: Dlaczego Linki Są Ważne?Jak dodawać linki w postach i stronach…

Jak naprawić błąd krytyczny w WordPress (krok po kroku)

W artykule: Co To jest błąd krytyczny w WordPress?Co powoduje krytyczny błąd…

WordPress Pingbacks & Trackbacks: Ultimate A-Z Guide

W artykule: Czym są Pingbacks i Trackbacks? Plus, dlaczego są ważneCzym Są…