tworzenie pliku robots.txt

Konfigurowanie pliku robots.txt w WordPress

Plik robots.txt jest tworzony głównie przez twórców stron internetowych oraz pozycjonerów (jego obecność jest weryfikowana np. podczas audytu SEO) w celu ograniczania dostępu robotom wyszukiwarek internetowych (np. Google, Yahoo, Bing ).

Dlaczego robots.txt jest ważny?

Czyni go tym samym bardzo istotnym – nie chcemy bowiem, by taki robot wchodził nam, gdzie popadnie. I indeksował np. nasze prywatne pliki. O pliku tym pisałam już kilka lat temu na moim innym blogu. Umieściłam tam krótką instrukcję jak samodzielnie zrobić taki plik.

Dowiecie się w nim jak stworzyć taki plik bez dostępu do serwera FTP oraz dużej wiedzy. Niestety nie każdy czuje się na siłach, by w taki sposób stworzyć ten plik, dlatego zdecydowałam się wrócić do tematu. Tym razem przy stworzeniu pliku z pomocą przyjedzie nam wtyczka Yoast SEO.

Jak wygląda struktura pliku robots.txt?

Przykładowa zawartość pliku przedstawia się tak:

Disallow: /folder-który-ukrywamy/   
Disallow: /plik-ktorego-niechcemy-pokazac.html    
Allow: /folder-który-ukrywamy/pojedynczy-plik-ktory-pokazujemy.html  

zabroniony dostęp do folderu po /

Disallow: /folder-który-ukrywamy/    

zabroniony dostęp do pliku po /

Disallow: /plik-ktorego-niechcemy-pokazac.html    

zezwalamy na dostęp do pliku po /

Allow: /folder-który-ukrywamy/pojedynczy-plik-ktory-pokazujemy.html  

Plik ten może posiadać także elementy takie jak:


blokuje wszystko

Disallow: /      

samo bez parametru daje dostęp do wszystkich plików

Disallow:   

Lokalizacje mapy strony (wpisz lokalizację swojej mapy):

Sitemap: https://www.aurainweb.pl/sitemap.xml

Dlaczego roboty wyszukiwarek wchodzą do katalogów i z jakiego powodu należy tego zabraniać?

Roboty przeglądarek wchodzą do różnych katalogów w celu zaindeksowania plików. I tak, o ile zależy nam, by w indeksie znalazły się takie pliki jak grafiki czy np. pliki pdf, HTML. Tak niekoniecznie chcemy, by trafiły do niego niektóre pliki PHP. Szczególnie te zawierające prywatne dane jak np. połączenie z bazą danych.

W jaki sposób stworzyć plik robots.txt z pomocą Yoast SEO?

Na początek musimy mieć zainstalowana wtyczkę Yoast SEO – wykorzystywaną głównie do optymalizacji naszej strony pod wymogi SEO. Powyżej zamieściłam link jak dodać tę wtyczkę do WordPress oraz jak z niej korzystać.

Kiedy będziemy już mieli tę wtyczkę należy wejść w jej ustawienia
SEO -> Narzędzia.

tworzenie pliku robots.txt w yoast seo
tworzenie pliku robots.txt w yoast seo

Na stronie narzędzi znajduje się wiele ciekawych dodatków, nas jednak będzie interesował Edytor plików. Z jego pomocą można nie tylko utworzyć i edytować nasz plik, ale także wiele innych.

Edytor plików - Narzędzia Yoast Seo
Edytor plików – Narzędzia Yoast Seo

Po wejściu w Edytor plików będziemy mogli zobaczyć np. jak aktualnie wygląda nasz plik .hataccess. Jeśli chcecie dowiedzieć się czego o tym pliku polecam mój wcześniejszy wpis przejdziecie do niego klikając .hataccess

Poniżej zamieściłam obrazki ukazujące, jak ten plik prezentuje się u mnie:

fragment pliku htaccess
fragment pliku .htaccess
fragment pliku .htaccess

Plik robots.txt tworzymy poprzez kliknięcie w przycisk Utwórz plik robots.txt. Po chwili pokaże się w miejscu przycisku nowe okno z przygotowaną już zawartością. Plik od razu napisany jest w taki sposób, by zabronić robotom wchodzić do katalogu wp-admin.

Na dobry początek taki plik powinien nam wystarczyć. Jeżeli jednak chcemy zabronić robotom wchodzić jeszcze w inne miejsca, musimy dodać je do pliku. Na koniec klikamy w przycisk Zapisz zmiany w pliku…

Jak zapewne już zauważyliście jest to dosyć proste narzędzie w obsłudze. Oszczędza nam z pewnością też czas w kwestii logowania się na serwer FTP.

Podsumowanie

Yoast Seo to nie jedyna wtyczka ułatwiająca tworzenie pliku robots.txt jest jednak jedną z popularniejszych. Dlatego warto o tym wspomnieć.

Macie własną opinię na ten temat lub znacie jakieś inne wtyczki, które warto polecić? Piszcie w komentarzu.