Jump to content

Achtung, PrestaShop 1.7 verschlechtert unter Umständen Google-Rankings - Handlungsbedarf


Recommended Posts

Ich habe erst kürzlich von 1.6 auf 1.7.4.3 geupdated. Was dabei alles schief gelaufen ist, kann man hier nachlesen, samt Lösungen aller aufgetretenen Probleme: https://www.prestashop.com/forums/topic/912694-upgrade-16118-1743-richtiges-prozedere/?do=findComment&comment=2998080

Nun aber ein weiteres Problem. Heute habe ich nach einem Index-Update einen kleinen Schreck bekommen, da mir die Google Konsole plötzlich sagt, dass alle meine Seiten nicht mehr mobilfreundlich sind, was sie aber mit 1.6 schon waren. Das classic Theme 1.7 sieht ja eigentlich chic aus, also zumindest besser und mobilfreundlicher als das alte aus 1.6. Das Problem ist Folgendes... per Standard blockt PrestaShop wichtige Ressourcen in der robots.txt mit den Zeilen

Disallow: */cache/

Disallow: */css/

Disallow: */js/

Unglücklicherweise schließt das auch '/themes/classic/assets/cache/' mit ein, also die Ressourcen, auf die Google Zugriff haben muss, um das Layout zu beurteilen. Ansonsten wird die Seite nur teilweise geladen. Wenn die CSS und JS Dateien, ggf. Bilder nicht geladen werden können, wird das reine HTML ohne Stile bewertet. Klickbare Elemente liegen plötzlich zu nahe beieinander, da zu klein, und ggf. ist der Inhalt breiter als der Bildschirm. Schon ist die Seite im Index als nicht mobilfreundlich markiert, obwohl sie es eigentlich ist. Das könnte nun im Mobile-First-Index langfristig fatale folgen haben und sollte behoben werden.

Ein Hinzufügen von

Allow: */themes/*/cache/*.css
Allow: */themes/*/cache/*.js
Allow: */themes/*/css/*.svg
Allow: */themes/*/css/*.ttf
Allow: */themes/*/css/*.woff
Allow: */themes/*/css/*.woff2
Allow: */themes/*/js/*.js

in der robots.txt erlaubt wieder den Zugriff auf diese Dateien (Theme-Stile, -Scripte, -Icons und -Schriftarten) und kann Schlimmeres verhindern. Bei mir hat es den Ursprungszustand wiederhergestellt: Seite ist mobilfreundlich

Ob ihr betroffen seid, prüft ihr am besten mit dem Google-Tool selbst: https://search.google.com/test/mobile-friendly

  • Like 1
  • Thanks 1
Link to comment
Share on other sites

In der Vorschau rechts wird mir tatsächlich der Shop ohne CSS angezeigt, trotzdem steht daneben: Die Seite ist für Mobilgeräte optimiert.

Google Pagespeed Insight zeigt bei der mobilen Variante aber die tatsächliche an. Also mit CSS und allem.

Link to comment
Share on other sites

Screenshotter und User sehen die Seite ganz normal.

Der Punkt ist der, dass Google die Seite nur teilweise lesen darf. Als Referenz schaue auch hier: https://de.ryte.com/magazine/der-googlebot-kann-nicht-auf-css-und-js-dateien-zugreifen-googles-warnung-in-der-search-console

Google hat das seit 4 Jahren in der Webmaster-Guideline, und warnt sogar aktiv seit 2015 in der Search Console.

Es kann sein, dass deine Website noch als mobilfreundlich durchgeht, da du keine Tabellen verwendest, und auch keine andere Elemente, die den Screen sprengen. Aber genauso wie du sie siehst, also ohne Stile in dem Test-Tool, so sieht der Google-Crawler deine Seite auch, da er die anderen Ressourcen nicht abgreifen darf.

Daher verweise ich nochmals auf SearchEngineLand, oder zahlreiche andere Artikel darüber.

Und auch noch mal ganz offiziell von Google selbst: https://webmaster-de.googleblog.com/2014/10/aktualisierung-der-technischen-richtlinien.html

Quote

Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.

 

 

Edited by mountarreat (see edit history)
Link to comment
Share on other sites

  • mountarreat changed the title to Achtung, PrestaShop verschlechtert unter Umständen Google-Rankings - Handlungsbedarf

Guten Morgen,

danke für die sehr ausführliche Antwort. Ich werde mir das ganze definitv nachher mal genauer durchlesen. Und wenn es es mit dem kleinen Zusatz getan ist, wär es ja auch kein Problem. Da man den Zusatz ja in den "custom" Bereich der robots.txt packen kann ist man damit ja auch Updatesicher.

Link to comment
Share on other sites

Vielen Dank für den Beitrag! 

Am 25.10.2018 um 9:59 AM schrieb mountarreat:

Klickbare Elemente liegen plötzlich zu nahe beieinander, da zu klein, und ggf. ist der Inhalt breiter als der Bildschirm.

 

genau dieses Problem wurde mir angezeigt. Und durch das Einfügen wie oben beschrieben, ist es nun behoben :-D  

Link to comment
Share on other sites

  • 2 weeks later...

Hi, danke für den Tip. Bei mir war es mit Version 1.7.2.2 auch der Fall. Frühere Tests mit Google hatten allerdings keine Probleme angezeigt. Mit dem Link von dir hatte ich aber den gleichen Effekt. Nach Einfügen der zusätzlichen Werte ist das Problem behoben und die Ansicht beim Test normal.

 

Vielen Dank nochmals

 

Viele Grüße 

 

Frank

 

Link to comment
Share on other sites

  •  eleazar pinned this topic
  • 4 weeks later...
  • 1 month later...
  •  eleazar unpinned this topic
  • 7 months later...

Hallo

Besten Dank für Deinen Tipp.

Jetzt werden bei nur noch 4 Seitenressourcen nicht geladen. Hast Du dazu auch noch einen Rat?

Folgende Scripts werden nicht geladen: googleads.g.doubleclick.net (2 Mal), widgets.pinterest und dann habe ich noch einen "sonstiger Fehler www.facebook.com/tr", den letzten Link finde ich nicht auf meiner Seite.

Ich nutze PS 1.7.5.1

Gruss aus der Schweiz

 

Link to comment
Share on other sites

  • 1 year later...

Hi Leute,

Ich benutze PS 1.7.7.1 und habe ein ähnliches Problem, vor allem im google Merchant Center.

Ich hatte vor einigen Wochen als Test die Produkte von google selbst crawlen lassen. Dabei hatte ich keine Fehler angezeigt bekommen.

Nun habe ich ein kostenpflichtiges Plugin installiert, welches die Feeds für das google Merchant Center erstellt.

Die Produkte werden fehlerfrei eingelesen und Tage später können -angeblich- bei einigen Produkten die Mobile Seite und/oder die Desktop Seite nicht aufgerufen werden. Wieder 2-3 Tage später ist dies bei einigen Produkten wieder möglich und dafür werden dann bereits freigegebene Produkte aus demselben Grund gesperrt...

Also ein hin und her. Google schreibt, dass in der robots.txt die Einträge für googlebot und googlebot-image fehlen. Dies kann ich jedoch nicht verstehen, denn auch davor waren diese Einträge nicht vorhanden und die Produkte konnten trotzdem gelesen werden.

Macht es Sinn, neben den empfohlenen zusätzlichen Zeilen auch die folgenden noch hinzuzufügen? Also quasi so:

User-agent: Googlebot
User-agent: Googlebot-image
User-agent: *

# Allow Directives
Allow: */modules/*.css
Allow: */modules/*.js
Allow: */modules/*.png
Allow: */modules/*.jpg
Allow: /js/jquery/*
Allow: */themes/*/cache/*.css
Allow: */themes/*/cache/*.js
Allow: */themes/*/css/*.svg
Allow: */themes/*/css/*.ttf
Allow: */themes/*/css/*.woff
Allow: */themes/*/css/*.woff2
Allow: */themes/*/js/*.js
# Private pages
Disallow: /*?order=
Disallow: /*?tag=
usw...

 

Edited by Michi001 (see edit history)
Link to comment
Share on other sites

  • 2 years later...
On 3/7/2021 at 1:10 PM, Michi001 said:

Hi Leute,

Ich benutze PS 1.7.7.1 und habe ein ähnliches Problem, vor allem im google Merchant Center.

Ich hatte vor einigen Wochen als Test die Produkte von google selbst crawlen lassen. Dabei hatte ich keine Fehler angezeigt bekommen.

Nun habe ich ein kostenpflichtiges Plugin installiert, welches die Feeds für das google Merchant Center erstellt.

Die Produkte werden fehlerfrei eingelesen und Tage später können -angeblich- bei einigen Produkten die Mobile Seite und/oder die Desktop Seite nicht aufgerufen werden. Wieder 2-3 Tage später ist dies bei einigen Produkten wieder möglich und dafür werden dann bereits freigegebene Produkte aus demselben Grund gesperrt...

Also ein hin und her. Google schreibt, dass in der robots.txt die Einträge für googlebot und googlebot-image fehlen. Dies kann ich jedoch nicht verstehen, denn auch davor waren diese Einträge nicht vorhanden und die Produkte konnten trotzdem gelesen werden.

Macht es Sinn, neben den empfohlenen zusätzlichen Zeilen auch die folgenden noch hinzuzufügen? Also quasi so:

User-agent: Googlebot
User-agent: Googlebot-image
User-agent: *

# Allow Directives
Allow: */modules/*.css
Allow: */modules/*.js
Allow: */modules/*.png
Allow: */modules/*.jpg
Allow: /js/jquery/*
Allow: */themes/*/cache/*.css
Allow: */themes/*/cache/*.js
Allow: */themes/*/css/*.svg
Allow: */themes/*/css/*.ttf
Allow: */themes/*/css/*.woff
Allow: */themes/*/css/*.woff2
Allow: */themes/*/js/*.js
# Private pages
Disallow: /*?order=
Disallow: /*?tag=
usw...

Hi, selbiges Problem hier, hast Du eine Lösung gefunden?

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...