-
Posts
29 -
Joined
-
Last visited
About Faco57
- Birthday 01/19/2004
Contact Methods
- Website
Profile Information
-
First Name
David
-
Last Name
Facoma
Recent Profile Visitors
174 profile views
Faco57's Achievements
Newbie (1/14)
0
Reputation
-
Bonjour, Même chose pour moi, rencontré avec Payplug, Paypal et Ebay. Aléatoirement et pour 10 à 20% des commandes. Les stats sont du coup inutilisables puisqu'elles comportent des fausses commandes. que je n'ose annuler, ne sachant les répercussions possibles puisque 2 factures et commandes ont un même paiement. J'envisageais une réflexion à une automatisation d'une remontée des factures vers le logiciel de compta, le projet est mort dans l'oeuf ! David.
-
Commande créé en double
Faco57 replied to Berdesse's topic in Utilisation de PrestaShop : configuration et difficultés
Bonjour, C'est résolu pour vous ? J'ai aussi des commandes en double avec 2 numéro de commande et 2 factures pour un même paiement, j'ai eu le cas avec Payplug, Paypal, et de Ebay. Ça a l'air aléatoire et sans raison particulière, sur 10 à 20% des commandes. Cdt. -
Bonjour, j'ai des pages blanches pour certains paniers en backoffice, tout le front en page blanche sur le même PC. BO accessible normalement sinon. Cache vidé, cookies virés sur Firefox, cache vidé dans le BO. Pareil. Par contre, accessible depuis les autres PC, machines virtuelles, machines derrière VPN en front et back, sauf certains paniers. Presta 1.6.1.4, le fichier config.inc.php ne contient pas la ligne permettant de switcher le mode debug. Donc pas d'affichage des erreurs. https://www.facoma.fr Une solution ? Je m'en suis rendu compte après avoir modifié les livraisons dans le module envoimoinscher. Merci.
-
No problemo ! C'est vrai que je n'ai pas parlé de sitemap dans le corps du texte, seulement dans le titre. Le problème semble être résolu de mon point de vue, mais pas encore d'un point de vue de la console search. Faut-il renvoyer sitemap et robots.txt pour réanalyse ou l'avertissement disparaîtra par la suite après quelques passages des robots ? Cordialement, David.
-
Test et avis de notre site après passage en https
Faco57 replied to Faco57's topic in Testez mon site ! :)
Merci pour ce premier avis. S'agirait pas de faire fuir avec un gros warning ! -
Bonjour, Suite au passage de notre site https://www.facoma.fr, j'aurais souhaité avoir un retour sur le plan sécurité, l'affichage du cadenas, pas d'alerte pour le certificat, vitesse d'affichage... ainsi que sur l'aspect général du site. Merci pour les retours que vous pourrez me faire. David.
-
J'ai fait divers test en console, le fichier à l'air d'être lu jusqu'au bout pour chaque adresse, et ne pas stopper dès qu'une condition matche comme ça se passe habituellement pour un firewall. On peut dont récupérer ce qui a été disallowed par une expression généraliste après coup par un allow plus pointu. Avis aux vendeurs de bavoirs, les articles sautent certainement puisque les avoirs ne sont pas répertoriés. Je vais voir dans quelques jours si le sitemap ressort propre dans la console search.
-
Bonjour, Je sais que le robots.txt ne bloque rien ! La Search Console Google renvoit l'avertissement "Le sitemap contient des URL qui sont bloquées par le fichier robots.txt" C'est en ça que je parle de blocage, terme employé par google. Je cherche donc à passer "telecommande" en allow en conservant le disallow sur les pages *commande pour avoir un retour vierge de l'analyse du sitemap et pouvoir ainsi référencer mes articles avec "télécommande" Le problème est identifié, je voudrais le contourner.
-
Bonjour, j'ai un petit soucis de pages bloquées par mon fichier robots.txt. C'est normal, c'est écrit dans le fichier ! Disallow: /*commande Du coup, mes articles qui contiennent le terme télécommande, ont hérité du terme telecommande dans l'URL simplifiée, et comme dans télécommande, il y a commande, forcément, ça bloque. La syntaxe et le fonctionnement du fichier permet-il de changer le comportement par un allow: /*telecommande avant ou après le disallow ? La lecture du fichier robots.txt s'arrête-t-elle au premier terme concordant ou se poursuit-elle jusqu'au bout pour chaque page ? Ou faut-il changer les URL et mettre des redirections en place ? Merci pour les éclaircissements