Search the Community
Showing results for tags 'disallow'.
-
I have recently updated from 1.6 to 1.7.4.3. You can read about what went wrong, including solutions to all problems encountered, here: https://www.prestashop.com/forums/topic/912572-problem-with-upgrade-from-1620-to-174/#comment-2989412 Now another problem. Today I got a little scared after an index-update because the Google search console suddenly told me that all my pages are no longer mobile-friendly, which they already were with 1.6. The classic Theme 1.7 looks good already, at least better and more mobile than the old 1.6. The problem is this ... by default, PrestaShop blocks important resources in the robots.txt with the lines Disallow: */cache/ Disallow: */css/ Disallow: */js/ Unfortunately, this also includes '/themes/classic/assets/cache/', which is the resources that Google needs to have access to evaluate the layout. Otherwise, the page is only partially loaded. If the CSS and JS files, among others, can not be loaded, the pure HTML is assessed without styles. Clickable elements are suddenly too close together because they are too small, and the content may be wider than the screen. Boom, the page in the index is marked as not mobile-friendly, although it is actually. This could now have fatal long-term consequences in the Google Mobile-First-Index and should be fixed immediately. Adding the lines Allow: */themes/*/cache/*.css Allow: */themes/*/cache/*.js Allow: */themes/*/css/*.svg Allow: */themes/*/css/*.ttf Allow: */themes/*/css/*.woff Allow: */themes/*/css/*.woff2 Allow: */themes/*/js/*.js in the robots.txt again allows access to these files (theme styles, scripts, icons and fonts) and can prevent worse. For me it has restored the original state: Page is mobile-friendly. If you're concerned, it's best to check with the Google tool itself: https://search.google.com/test/mobile-friendly Keep in mind that after you uploaded the new robots.txt, it may take a while for Google to internalize it, so results are not immediately visible using the mobile-friendly tool. Give it 30 minutes, and check again later, to verify that your site now is mobile-friendly.
- 11 replies
-
- 3
-
-
-
- seo
- robots.txt
-
(and 4 more)
Tagged with:
-
Ich habe erst kürzlich von 1.6 auf 1.7.4.3 geupdated. Was dabei alles schief gelaufen ist, kann man hier nachlesen, samt Lösungen aller aufgetretenen Probleme: https://www.prestashop.com/forums/topic/912694-upgrade-16118-1743-richtiges-prozedere/?do=findComment&comment=2998080 Nun aber ein weiteres Problem. Heute habe ich nach einem Index-Update einen kleinen Schreck bekommen, da mir die Google Konsole plötzlich sagt, dass alle meine Seiten nicht mehr mobilfreundlich sind, was sie aber mit 1.6 schon waren. Das classic Theme 1.7 sieht ja eigentlich chic aus, also zumindest besser und mobilfreundlicher als das alte aus 1.6. Das Problem ist Folgendes... per Standard blockt PrestaShop wichtige Ressourcen in der robots.txt mit den Zeilen Disallow: */cache/ Disallow: */css/ Disallow: */js/ Unglücklicherweise schließt das auch '/themes/classic/assets/cache/' mit ein, also die Ressourcen, auf die Google Zugriff haben muss, um das Layout zu beurteilen. Ansonsten wird die Seite nur teilweise geladen. Wenn die CSS und JS Dateien, ggf. Bilder nicht geladen werden können, wird das reine HTML ohne Stile bewertet. Klickbare Elemente liegen plötzlich zu nahe beieinander, da zu klein, und ggf. ist der Inhalt breiter als der Bildschirm. Schon ist die Seite im Index als nicht mobilfreundlich markiert, obwohl sie es eigentlich ist. Das könnte nun im Mobile-First-Index langfristig fatale folgen haben und sollte behoben werden. Ein Hinzufügen von Allow: */themes/*/cache/*.css Allow: */themes/*/cache/*.js Allow: */themes/*/css/*.svg Allow: */themes/*/css/*.ttf Allow: */themes/*/css/*.woff Allow: */themes/*/css/*.woff2 Allow: */themes/*/js/*.js in der robots.txt erlaubt wieder den Zugriff auf diese Dateien (Theme-Stile, -Scripte, -Icons und -Schriftarten) und kann Schlimmeres verhindern. Bei mir hat es den Ursprungszustand wiederhergestellt: Seite ist mobilfreundlich. Ob ihr betroffen seid, prüft ihr am besten mit dem Google-Tool selbst: https://search.google.com/test/mobile-friendly
- 9 replies
-
- 2
-
-
-
- seo
- mobile-first
-
(and 4 more)
Tagged with:
-
Bonjour, Afin de bloquer l'indexation de pages en espagnol qui reviennent en erreur dans la search console ( je n'ai qu'une langue le français sur mon site), j'ai inscrit un Disallow: /*es/ Dans le robots.txt Mais du coup, search console m'indique 1 avertissement : toutes les pages de la catégorie "chaines" sont aussi bloquée par le robots.txt, Je ne sais pas comment résoudre ce problème, quelqu'un peut-il m'aider ? Merci d'avance.
- 3 replies
-
- langues
- robots.txt
-
(and 2 more)
Tagged with:
-
I would like to disallow bots to crawl a certain directory on my server. It is not possible to add this manually to the robot.txt file like adding information to the .htaccess file via de BO. Besides that it's not possible to overwrite the robots.txt file via ftp and even if it would be possible the manually added line will be removed when generating a new robots.txt file via de BO. Does someone know a good solution for this? Additional details why? The directory that I don't want to be crawled contains a flash banner that shows on virtualy every page of the shop and the text of the flash file is indexed by google. To be precisely the text of the flash banner is shown in the description of any indexed page in google, even though I have a unique meta description for virtually every page. Normally the meta-description of a page should be the page description for indexed pages, however google finds flash text more important. To resolve this I thought that disallowing the directory to be crawled should resolve the problem. I you have any other idea's? They would be welcome too! Thanks in advance for any replies.
- 4 replies
-
- add
- robots.txt
- (and 4 more)
-
Usunięcie stron w języku innym niż domyślny w SITEMAP
Mallard2 posted a question in Wsparcie i pomoc użytkowników
Czy jest możliwość aby zablokować wszystkie strony w dodatkowym języku EN ( domyślny PL) , aby nie były one generowane do mapy strony. Chciałbym aby dla google nie istniały te strony, ze względu że częściowo treści się powielają i będzie to generowało double content w SEO . W tej chwili użytkuje moduł Google sitemap v1.6 przez PrestaShop . Presta : 1.4.4.1. O ile w pliku robot.txt , mogę zablokować dostęp robotowi , to jednak będzie krzyczał , że w sitemap są strony do którego dostępu nie ma. Czy jest możliwość jakieś konfiguracji aby wykluczyć języki lub ktoś może polecić inny moduł może być płatny ale fajnie gdyby obsługiwał wszystkie wersje presty. Korzystając z okazji zapytam , czy ktoś również może polecić moduł do odwołań kanonicznych. -
Hello!! How could I put a noindex for category tags and for the searcher bar, in my robots.txt of the ecommerce that I´m creating? It´s important for me to put noindex in category tags and noidex in the searcher bar. (for example, for Wordpress I put "Disallow: /?=" to noindex the searcher) Anybody can help me?
-
Bonjour, Je vous contact car j'utilise lengow pour la gestion de mes flux, et je suis confronté à un soucis. J’ai un soucis avec Google Shopping, qui semble ne pas explorer un grand nombre de pages en raison du fichier robot.txt En fait je pense que j’ai trouvé la raison, mais je ne sais pas comment la contourner. Dans mon flux j’ai des urls avec utm_source/utm_medium/utm_campaign, logique puisque c’est ce que j’ai paramétré dans mon interface lengow pour tracker mes campagne dans GA par ex : http://www.outy-store.fr/visseuse/68-boulonneuse-a-chocs-18v-440nm-btw450z-makita-0088381084949.html?LGWCODE=68;8621;599&utm_source=Googleshopping&utm_term=BTW450Z&utm_medium=comparateur&utm_campaign=Googleshopping Mais … dans mon robot.txt j’ai Disallow: /*utm_source= Disallow: /*utm_medium= Disallow: /*utm_campaign= Donc logique qu’il bloque. Que me conseillez vous de faire ? Supprimer ces disallow dans mon robot ? C’est ce qui me vient à l’esprit toutefois si prestashop l’intègre dans son robot.txt par défaut il doit y avoir une raison ? Merci pour votre aide, A
-
Hello, i'd like that some categories child of mother cat of my prestashop will be not index on google. Example: - CAT 1 --- CAT A --- CAT B --- CAT C How can i set my robots.txt to disallow all the categories child of CAT 1 (in few words i need to disallow CAT A, CAT B, CAT C)? Hope anyone could help me to figured out
- 1 reply
-
- robots
- disabled categories
-
(and 2 more)
Tagged with:
-
Hey everyone, I just noticed that Google now ignores the Disallow: /*p= from my robots.txt file and now lists a whole bunch of duplicate meta tag errors in Webmaster tools. I wonder how comes, and if anyone else is having the same issue. And what I could do to prevent this issue? I recently upgraded to 1.4.9 and wonder if that is the issue?I am also using Tomerg's Presto-Changeo module "Duplicate URL Redirect". Help would be much appreciated! Regards, Dan EDIT: must have been a Google glitch, the robots.txt. file works again as it should