Plik robots.txt to prosty plik tekstowy umieszczany w głównym katalogu strony internetowej, który informuje roboty wyszukiwarek (np. Googlebot), które zasoby serwisu mogą być indeksowane, a które powinny zostać pominięte. To jedno z podstawowych narzędzi technicznego SEO, które pozwala kontrolować widoczność strony w wynikach wyszukiwania.

W sklepie internetowym, np. opartym na PrestaShop, prawidłowa konfiguracja pliku robots.txt ma kluczowe znaczenie – chroni przed indeksowaniem niepotrzebnych podstron (np. filtrowania, koszyka, logowania), wspiera crawl budget i pomaga unikać duplikacji treści.

Co to jest robots.txt?

Robots.txt to plik, który roboty wyszukiwarek odczytują jako pierwszą instrukcję po wejściu na stronę. Na jego podstawie decydują, które zasoby witryny analizować i indeksować, a które pomijać.

Przykładowy adres pliku:

arduinoKopiujEdytujhttps://twojsklep.pl/robots.txt

Plik ten składa się z dyrektyw takich jak:

  • User-agent: – określa, do którego robota odnosi się reguła (np. Googlebot, * dla wszystkich),
  • Disallow: – blokuje dostęp do określonej ścieżki lub katalogu,
  • Allow: – umożliwia dostęp (opcjonalne w bardziej precyzyjnych konfiguracjach),
  • Sitemap: – podaje lokalizację mapy strony (sitemap.xml).

Do czego służy plik robots.txt?

W praktyce plik robots.txt pozwala:

  • zablokować indeksowanie panelu logowania, koszyka, filtrowania, historii zamówień,
  • ochronić powielające się lub techniczne adresy URL (np. z parametrami),
  • skierować roboty do odpowiedniej mapy strony,
  • zapobiec marnowaniu budżetu indeksowania (crawl budget),
  • zwiększyć kontrolę nad strukturą i hierarchią witryny.

Przykład pliku robots.txt dla sklepu PrestaShop

Poniżej znajdziesz bezpieczną, zoptymalizowaną wersję pliku robots.txt dla standardowej instalacji PrestaShop:

makefileKopiujEdytujUser-agent: *
Disallow: /app/
Disallow: /bin/
Disallow: /config/
Disallow: /download/
Disallow: /mails/
Disallow: /modules/
Disallow: /translations/
Disallow: /var/
Disallow: /vendor/
Disallow: /cache/
Disallow: /classes/
Disallow: /controllers/
Disallow: /docs/
Disallow: /install/
Disallow: /admin*/  
Disallow: /login
Disallow: /cart
Disallow: /order
Disallow: /search
Disallow: /password-recovery
Disallow: /*?orderby=
Disallow: /*?orderway=
Disallow: /*?tag=
Disallow: /*?id_currency=
Disallow: /*?search_query=
Disallow: /*controller=*

Sitemap: https://twojsklep.pl/sitemap.xml

Uwaga: Ścieżki mogą się różnić w zależności od wersji PrestaShop i struktury Twojego sklepu. Zawsze wykonaj test indeksowania po każdej zmianie.

Robots.txt a indeksowanie i SEO

Wbrew pozorom zablokowanie strony w robots.txt nie oznacza, że nie pojawi się ona w wynikach Google – może być zindeksowana, ale bez treści. Jeśli chcesz całkowicie wykluczyć stronę z indeksu, lepiej użyć tagu noindex w kodzie HTML (który zadziała tylko, jeśli robot ma dostęp do strony).

Dlatego używaj robots.txt głównie do ograniczania dostępu do folderów technicznych i powielonych adresów, a nie do blokowania cennych treści.

Jak edytować plik robots.txt w PrestaShop?

W PrestaShop plik robots.txt można:

  • wygenerować automatycznie z poziomu zaplecza:
    Preferencje > SEO i URL > Generuj plik robots.txt
  • ręcznie edytować przez FTP lub menedżer plików (np. public_html/robots.txt),
  • uzupełniać niestandardowe wpisy o wykluczenia dynamiczne (np. filtry, parametry).

Po zmianach warto sprawdzić poprawność pliku za pomocą:

Czego nie robić w robots.txt?

Najczęstsze błędy:

  • całkowite zablokowanie dostępu do strony (Disallow: /) – np. przez przypadek,
  • blokowanie zasobów CSS i JS – Google potrzebuje ich do oceny wyglądu strony,
  • brak mapy strony w pliku,
  • niepotrzebne blokowanie adresów z tagiem noindex, co uniemożliwia jego działanie,
  • niezachowanie spójności pliku robots.txt po aktualizacji PrestaShop.