Jump to content

Błędy generowanego pliku robots.txt


Dawid Sz.

Recommended Posts

Witam, właśnie zauważyłem taki dośc poważny błąd w pliku robots.txt  generowanym przez preste, mianowicie skrypt generuje coś takiego:

...
Disallow: */translations/
Disallow: */tools/
# Files
Disallow: /*pl/odzyskiwanie-hasla
Disallow: /*pl/adres
Disallow: /*pl/adresy
Disallow: /*pl/logowanie
Disallow: /*pl/koszyk
Disallow: /*pl/rabaty
Disallow: /*pl/historia-zamowien
Disallow: /*pl/dane-osobiste
Disallow: /*pl/moje-konto
Disallow: /*pl/sledzenie-zamowienia
Disallow: /*pl/pokwitowania
Disallow: /*pl/zamowienie
Disallow: /*pl/szukaj
...

I tu jest problem poniewaz plik ma odmawiać dostępu do poszczególnych adresów robotą indeksującym, lecz presta błędnie wypisuje te adresy.

Wszystko jest OK jeśli mamy kilka języków w sklepie ponieważ wtedy adresy są poprawne ale tak jak u mnie gdzie jest tylko jeden język nie istnieje adres www.x.pl/pl/szukaj (wywala 404) poprawny jest www.x.pl/szukaj.

Dlatego nie ma co liczyć na skrypt tylko trzeba plik zmienić ręczne.

 

Dla niewtajemniczonych jak to naprawić żeby nie zadawali pytań:

 

ciąg /*pl/ zmieniamy na */ więc zamiast

Disallow: /*pl/szukaj

ma być

Disallow: */szukaj

 

Dopiero w takiej formie plik zaczyna działać.

 

P.S. Patrzyłem na kilku sklepach jak to wygląda u innych i jakoś nie zauważyłem żeby ktoś zauważył problem.

 

I szacuneczek dla geniuszy którzy w pliku robots wpisali adres panelu admina :)

Dopiszcie login i hasło będzie komplet...

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...