Jump to content

Faco57

Members
  • Posts

    29
  • Joined

  • Last visited

About Faco57

  • Birthday 01/19/2004

Contact Methods

Profile Information

  • First Name
    David
  • Last Name
    Facoma

Recent Profile Visitors

174 profile views

Faco57's Achievements

Newbie

Newbie (1/14)

0

Reputation

  1. Bonjour, Même chose pour moi, rencontré avec Payplug, Paypal et Ebay. Aléatoirement et pour 10 à 20% des commandes. Les stats sont du coup inutilisables puisqu'elles comportent des fausses commandes. que je n'ose annuler, ne sachant les répercussions possibles puisque 2 factures et commandes ont un même paiement. J'envisageais une réflexion à une automatisation d'une remontée des factures vers le logiciel de compta, le projet est mort dans l'oeuf ! David.
  2. Bonjour, C'est résolu pour vous ? J'ai aussi des commandes en double avec 2 numéro de commande et 2 factures pour un même paiement, j'ai eu le cas avec Payplug, Paypal, et de Ebay. Ça a l'air aléatoire et sans raison particulière, sur 10 à 20% des commandes. Cdt.
  3. Des modules plus fiables en tête offrant cette prestation ? Le problème est que soit on met tous ses oeufs dans le même panier avec quelqu'un qui a un volume pour négocier des tarifs, soit on multiplie les prestataires de transport et c'est le massacre tarifaire.
  4. C'est assez effrayant de voir comme on se retrouve dépendant de la fiabilité d'un prestataire externe et comme le site se trouve fragilisé et tributaire de celui-ci, sans avertissement ni parade en front.
  5. Bingo Fatal error: Call to a member function query() on null in /home/facoma/public_html/modules/envoimoinscher/Env/Quotation.php on line 382
  6. Merci ! c'est comme les fautes d'orthographe, un tiers, ça lui saute aux yeux direct ! je vais pouvoir avancer du coup. Apparemment, je n'arrive pas à accéder à www.envoimoinscher.com , c'est juste moi ou général ?
  7. Bonjour, j'ai des pages blanches pour certains paniers en backoffice, tout le front en page blanche sur le même PC. BO accessible normalement sinon. Cache vidé, cookies virés sur Firefox, cache vidé dans le BO. Pareil. Par contre, accessible depuis les autres PC, machines virtuelles, machines derrière VPN en front et back, sauf certains paniers. Presta 1.6.1.4, le fichier config.inc.php ne contient pas la ligne permettant de switcher le mode debug. Donc pas d'affichage des erreurs. https://www.facoma.fr Une solution ? Je m'en suis rendu compte après avoir modifié les livraisons dans le module envoimoinscher. Merci.
  8. L'avertissement a disparu dans la console search. Les adresses en *commande sont bien exclues mais pas celles en *telecommande. Merci pour les précisions apportées.
  9. No problemo ! C'est vrai que je n'ai pas parlé de sitemap dans le corps du texte, seulement dans le titre. Le problème semble être résolu de mon point de vue, mais pas encore d'un point de vue de la console search. Faut-il renvoyer sitemap et robots.txt pour réanalyse ou l'avertissement disparaîtra par la suite après quelques passages des robots ? Cordialement, David.
  10. Merci pour ce premier avis. S'agirait pas de faire fuir avec un gros warning !
  11. Bonjour, Suite au passage de notre site https://www.facoma.fr, j'aurais souhaité avoir un retour sur le plan sécurité, l'affichage du cadenas, pas d'alerte pour le certificat, vitesse d'affichage... ainsi que sur l'aspect général du site. Merci pour les retours que vous pourrez me faire. David.
  12. J'ai fait divers test en console, le fichier à l'air d'être lu jusqu'au bout pour chaque adresse, et ne pas stopper dès qu'une condition matche comme ça se passe habituellement pour un firewall. On peut dont récupérer ce qui a été disallowed par une expression généraliste après coup par un allow plus pointu. Avis aux vendeurs de bavoirs, les articles sautent certainement puisque les avoirs ne sont pas répertoriés. Je vais voir dans quelques jours si le sitemap ressort propre dans la console search.
  13. Bonjour, Je sais que le robots.txt ne bloque rien ! La Search Console Google renvoit l'avertissement "Le sitemap contient des URL qui sont bloquées par le fichier robots.txt" C'est en ça que je parle de blocage, terme employé par google. Je cherche donc à passer "telecommande" en allow en conservant le disallow sur les pages *commande pour avoir un retour vierge de l'analyse du sitemap et pouvoir ainsi référencer mes articles avec "télécommande" Le problème est identifié, je voudrais le contourner.
  14. Bonjour, j'ai un petit soucis de pages bloquées par mon fichier robots.txt. C'est normal, c'est écrit dans le fichier ! Disallow: /*commande Du coup, mes articles qui contiennent le terme télécommande, ont hérité du terme telecommande dans l'URL simplifiée, et comme dans télécommande, il y a commande, forcément, ça bloque. La syntaxe et le fonctionnement du fichier permet-il de changer le comportement par un allow: /*telecommande avant ou après le disallow ? La lecture du fichier robots.txt s'arrête-t-elle au premier terme concordant ou se poursuit-elle jusqu'au bout pour chaque page ? Ou faut-il changer les URL et mettre des redirections en place ? Merci pour les éclaircissements
×
×
  • Create New...