Skip to content

Plik robots.txt – co to jest, jak działa i jak ustawić go w sklepie PrestaShop?

Bezpłatna konsultacja

    Plik robots.txt to prosty plik tekstowy umieszczany w głównym katalogu strony internetowej, który informuje roboty wyszukiwarek (np. Googlebot), które zasoby serwisu mogą być indeksowane, a które powinny zostać pominięte. To jedno z podstawowych narzędzi technicznego SEO, które pozwala kontrolować widoczność strony w wynikach wyszukiwania.

    W sklepie internetowym, np. opartym na PrestaShop, prawidłowa konfiguracja pliku robots.txt ma kluczowe znaczenie – chroni przed indeksowaniem niepotrzebnych podstron (np. filtrowania, koszyka, logowania), wspiera crawl budget i pomaga unikać duplikacji treści.

    Co to jest robots.txt?

    Robots.txt to plik, który roboty wyszukiwarek odczytują jako pierwszą instrukcję po wejściu na stronę. Na jego podstawie decydują, które zasoby witryny analizować i indeksować, a które pomijać.

    Przykładowy adres pliku:

    arduinoKopiujEdytujhttps://twojsklep.pl/robots.txt
    

    Plik ten składa się z dyrektyw takich jak:

    • User-agent: – określa, do którego robota odnosi się reguła (np. Googlebot, * dla wszystkich),
    • Disallow: – blokuje dostęp do określonej ścieżki lub katalogu,
    • Allow: – umożliwia dostęp (opcjonalne w bardziej precyzyjnych konfiguracjach),
    • Sitemap: – podaje lokalizację mapy strony (sitemap.xml).

    Do czego służy plik robots.txt?

    W praktyce plik robots.txt pozwala:

    • zablokować indeksowanie panelu logowania, koszyka, filtrowania, historii zamówień,
    • ochronić powielające się lub techniczne adresy URL (np. z parametrami),
    • skierować roboty do odpowiedniej mapy strony,
    • zapobiec marnowaniu budżetu indeksowania (crawl budget),
    • zwiększyć kontrolę nad strukturą i hierarchią witryny.

    Przykład pliku robots.txt dla sklepu PrestaShop

    Poniżej znajdziesz bezpieczną, zoptymalizowaną wersję pliku robots.txt dla standardowej instalacji PrestaShop:

    makefileKopiujEdytujUser-agent: *
    Disallow: /app/
    Disallow: /bin/
    Disallow: /config/
    Disallow: /download/
    Disallow: /mails/
    Disallow: /modules/
    Disallow: /translations/
    Disallow: /var/
    Disallow: /vendor/
    Disallow: /cache/
    Disallow: /classes/
    Disallow: /controllers/
    Disallow: /docs/
    Disallow: /install/
    Disallow: /admin*/  
    Disallow: /login
    Disallow: /cart
    Disallow: /order
    Disallow: /search
    Disallow: /password-recovery
    Disallow: /*?orderby=
    Disallow: /*?orderway=
    Disallow: /*?tag=
    Disallow: /*?id_currency=
    Disallow: /*?search_query=
    Disallow: /*controller=*
    
    Sitemap: https://twojsklep.pl/sitemap.xml
    

    Uwaga: Ścieżki mogą się różnić w zależności od wersji PrestaShop i struktury Twojego sklepu. Zawsze wykonaj test indeksowania po każdej zmianie.

    Robots.txt a indeksowanie i SEO

    Wbrew pozorom zablokowanie strony w robots.txt nie oznacza, że nie pojawi się ona w wynikach Google – może być zindeksowana, ale bez treści. Jeśli chcesz całkowicie wykluczyć stronę z indeksu, lepiej użyć tagu noindex w kodzie HTML (który zadziała tylko, jeśli robot ma dostęp do strony).

    Dlatego używaj robots.txt głównie do ograniczania dostępu do folderów technicznych i powielonych adresów, a nie do blokowania cennych treści.

    Jak edytować plik robots.txt w PrestaShop?

    W PrestaShop plik robots.txt można:

    • wygenerować automatycznie z poziomu zaplecza:
      Preferencje > SEO i URL > Generuj plik robots.txt
    • ręcznie edytować przez FTP lub menedżer plików (np. public_html/robots.txt),
    • uzupełniać niestandardowe wpisy o wykluczenia dynamiczne (np. filtry, parametry).

    Po zmianach warto sprawdzić poprawność pliku za pomocą:

    Czego nie robić w robots.txt?

    Najczęstsze błędy:

    • całkowite zablokowanie dostępu do strony (Disallow: /) – np. przez przypadek,
    • blokowanie zasobów CSS i JS – Google potrzebuje ich do oceny wyglądu strony,
    • brak mapy strony w pliku,
    • niepotrzebne blokowanie adresów z tagiem noindex, co uniemożliwia jego działanie,
    • niezachowanie spójności pliku robots.txt po aktualizacji PrestaShop.

    Czytaj dalej