Jump to content

Mehrere hundert seltsame Besuche


Darachmor

Recommended Posts

Hallo zusammen

 

Ich weiss nicht, ob ich hier richtig bin... Aber seit ungefähr einer Woche, habe ich total die schrägen IP-Adressen auf meiner Seite! Heute wurde meine Seite z.B. innerhalb von 20 Minuten 850mal aufgerufen und zwar von einer IP-Adresse, die sich zunächst als ungültig herausstellte weil sie zu viele Ziffern hatte. Ich habe sie dann gegoogelt (gegoogelt?? :blink: was für ein Deutsch...) und wie sich herausstellte, kannte man diese "IP-Adresse" schon...irgendwo von einem russischen Server. Im Verlaufe des Tages wurde meine Seite noch gut hundert Mal angeklickt und diese stammten fast allesamt aus Russland, Ukraine, Kasachstan... :(

 

Das geht jetzt seit fast einer Woche so, an einem Tag habe ich normal viele Besucher, am nächsten schon wieder abartig viele (Ich meine abartig, weil so viele Menschen kennen meinen Shop noch gar nicht). Und vorallem sind es Besucher und nicht Besuche...

 

Eben, wie schon gesagt, ich weiss nicht ob ich hier richtig bin, geschweige denn, ob es überhaupt ins Prestashop Forum gehört...wäre trotzdem froh um Hilfe :(

 

Vielen Dank für eure Hilfe

 

Gruess Darachmor

Link to comment
Share on other sites

Hallo,

 

ich weiß nicht ob die Frage wirkich Prestashop- und nicht serverbezogen ist. Das klingt natürlich nach ddos-light, aber besser ist es, du fragst deinen Hoster danach, er kann die Besuche viel besser trakcen und dazu fachspezifische die Stellung beziehen.

Link to comment
Share on other sites

Hi,

 

das kenne ich durchaus. Aufgrund der Häufigkeit konnte man aber noch nicht von einem Angriff sprechen. Inzwischen weiss ich, dass es sich wohl um einen komischen Robot handelt, der die Seiten indexiert. Mir war das dennoch nicht geheuer. Seither setze ich auf folgende .htaccess-Bestimmungen.

 

order allow,deny
deny from 192.168.2.100
deny from 192.168.2.101
deny from 192.168.2.102
deny from 192.168.2.103
allow from all

 

Die IPs eben entsprechend anpassen.

 

Viele Grüße,

Michael

Link to comment
Share on other sites

  • 1 month later...

Wenn du die Zahlen radikal zurückfahren willst, wirf die aggressive Bots doch einfach raus durch folgende Einträge in deiner robots.txt:

 

#Nervige Bots
User-agent: MJ12bot
Disallow: /
User-agent: majestic12
Disallow: /
User-agent: Yandex
Disallow: /
User-agent: Baidu
Disallow: /
User-agent: Naver
Disallow: /
User-agent: Goo
Disallow: /
User-agent: SoGou
Disallow: /
User-agent: Youdao
Disallow: /

 

Und wenn du noch eins drauf setzen willst für diejenigen, die die robots.txt einfach ignorieren, dann fügst du in der .htaccess die folgenden Zeilen ein. Und zwar oberhalb der von PrestaShop automatisch erzeugten Zeilen, weil es sonst bei einer Regeneration der .htaccess gelöscht wird!

 

#Die folgenden Zeilen filtern Spammer-Robots und leiten sie auf eine Fakeseite um
RewriteCond %{HTTP_USER_AGENT} ^Alexibot			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^asterias			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^BackDoorBot			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Black.Hole			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^BlackWidow			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^BlowFish			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^BotALot				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^BuiltBotTough		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Bullseye			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^BunnySlippers		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Cegbfeieh			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^CheeseBot			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^CherryPicker		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^CopyRightCheck		  [OR]
RewriteCond %{HTTP_USER_AGENT} ^cosmos				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Crescent			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Custo				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^DISCo				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^DittoSpyder			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Download\ Demon		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^eCatch				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^EirGrabber			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailCollector		  [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailWolf			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^EroCrawler			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures    [OR]
RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^FlashGet			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Foobot				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^FrontPage			   [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^GetRight			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetWeb!				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Googlebot-Image		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^GrabNet				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Grafula				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Harvest				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^hloader				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^HMView				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^httplib				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^HTTrack				 [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^humanlinks			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^ia_archiver			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Image\ Stripper		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Image\ Sucker		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Indy\ Library		   [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^InfoNaviRobot		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^InterGET			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Internet\ Ninja		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^JennyBot			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^JetCar				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^JOC\ Web\ Spider	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Kenjin.Spider		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Keyword.Density		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^larbin				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^LeechFTP			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^LexiBot				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^libWeb/clsHTTP		  [OR]
RewriteCond %{HTTP_USER_AGENT} ^LinkextractorPro	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^LinkScan/8.1a.Unix	  [OR]
RewriteCond %{HTTP_USER_AGENT} ^LinkWalker			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^lwp-trivial			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mass\ Downloader	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mata.Hari			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft.URL		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^MIDown\ tool		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^MIIxpc				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mister.PiX			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^moget				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/2			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/3.Mozilla/2.01  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla.*NEWT		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Navroad				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^NearSite			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetAnts				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetMechanic			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetSpider			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Net\ Vampire		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetZIP				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^NICErsPRO			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^NPBot				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Octopus				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline.Explorer	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ Explorer	   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ Navigator	  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Openfind			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^PageGrabber			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Papa\ Foto			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^pavuk				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^pcBrowser			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^ProPowerBot/2.14	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^ProWebWalker		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^ProWebWalker		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^QueryN.Metasearch	   [OR]
RewriteCond %{HTTP_USER_AGENT} ^ReGet				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^RepoMonkey			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^RMA					 [OR]
RewriteCond %{HTTP_USER_AGENT} ^SiteSnagger			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^SlySearch			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^SmartDownload		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^SpankBot			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^spanner				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperBot			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperHTTP			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Surfbot				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^suzuran				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Szukacz/1.4			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^tAkeOut				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Teleport			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Teleport\ Pro		   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Telesoft			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^The.Intraformant	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^TheNomad			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^TightTwatBot		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Titan				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^toCrawl/UrlDispatcher   [OR]
RewriteCond %{HTTP_USER_AGENT} ^toCrawl/UrlDispatcher   [OR]
RewriteCond %{HTTP_USER_AGENT} ^True_Robot			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^turingos			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^TurnitinBot/1.5		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^URLy.Warning		    [OR]
RewriteCond %{HTTP_USER_AGENT} ^VCI					 [OR]
RewriteCond %{HTTP_USER_AGENT} ^VoidEYE				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebAuto				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebBandit			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebEMailExtrac.*	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebEnhancer			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebFetch			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebGo\ IS			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web.Image.Collector	 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Image\ Collector   [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebLeacher			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebmasterWorldForumBot  [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebReaper			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebSauger			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website\ eXtractor	  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website.Quester		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website\ Quester	    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Webster.Pro			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebStripper			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Sucker			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebWhacker			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZip				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget				    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Widow				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^[Ww]eb[bb]andit		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WWW-Collector-E		 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WWWOFFLE			    [OR]
RewriteCond %{HTTP_USER_AGENT} ^Xaldon\ WebSpider	   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Xenu's				  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Zeus
RewriteRule ^.*$ lmaa.php  [L]

 

Das Aussehen deiner lmaa.php darfst du selbst bestimmen. ;)

  • Like 2
Link to comment
Share on other sites

Hallo Eleazar

 

Bei robots.txt habe ich die Zeilen eingefügt. Bei der .htaccess muss ich es vor diesem Satz einsetzen, oder? Entschuldige die Frage, aber ist besser... :rolleyes:

 

 

# ~~start~~ Do not remove this comment, Prestashop will keep automatically the code outside this comment when .htaccess will be generated again

# .htaccess automaticaly generated by PrestaShop e-commerce open-source solution

# http://www.prestashop.com - http://www.prestashop.com/forums

 

Vielen Dank für die Hilfe

 

Gruess Darachmor

Link to comment
Share on other sites

Hallo Darachmor,

Okay, bei meinem Hoster sehen die Zahlen anders aus. Da sind weit weniger Aufrufe... Liegt wohl am Zählsystem von PrestaShop.
Ja, Prestashop ist wirklich ein gutes Shopsystem, aber Statistik können die einfach nicht. Man kann auch nicht alles können. ;) Mit etwas Wissen kannst Du auf Piwik zurückgreifen, die Community macht Webseiten-Analyse und die wissen was sie tun.
Bei robots.txt habe ich die Zeilen eingefügt.

Die robot.txt wird von den netten Bots gelesen. Ich habe die Erfahrung gesammelt, dass z.B. Amazon mit eigenen Bots auf unsere Shopseiten zugegriffen hat, die kümmern sich z.B. nicht um die robot.txt.

Du kannst auch z.B. bestimmte ip-Adressen oder -bereiche ausschließen oder umleiten. Wobei im Netz steht, dass bei agressiven Bots oder Datensammlern das Umleiten weniger verdächtig ist.

ich verwende folgenden Code in der htaccess:

RewriteEngine on
RewriteCond %{REMOTE_ADDR} ^xx.xxx.x.xxx [OR]
# Schliesst xx.xxx.x.xxx aus
RewriteCond %{REMOTE_ADDR} ^yyy.yyy.(1[2-9][0-9]|2[0-5][0-9]).
# Schliesst yyy.yyy.120.* bis yyy.yyy.259.* aus
RewriteRule .* http://www.alternativdomain.de [R=301,L]

Link to comment
Share on other sites

Das Aussperren mittels .htaccess empfehle ich nicht. Du verlangsamst deine Seite damit.

Nutze einfach das Tool Geotargeting, welches Prestashop mit an Bord hat. Wenn du nicht nach Russland lieferst, dann kannst du die Länder damit sperren, bzw. solltest du mit diesem Tool sowieso alle Länder sperren, wohin du nicht lieferst. ABER bitte nicht USA sperren !! (sonst sperrst du damit auch die großen Suchmaschinen aus).

 

Alternativ, um Spammer und Hacker von deinem Webspace fernzuhalten kannst du project honeypot oder bot-trap verwenden. Beides bitte googlen.

Link to comment
Share on other sites

@Darachmor

ja auf jeden Fall davor. Sonst ist es bei jeder Regeneration der .htaccess wieder weg.

 

@Luca01

Ja, deswegen hatte ich ja auch die Umleitung auf eine Fakeseite vorgeschlagen, weil sie sich nicht um die robots.txt scheren. IP_Ranges kannst du natürlich nur dann eingeben, wenn du sie auch kennst.

 

Das Einfachste ist immer noch, sich die Logdatei auf seinem Server anzusehen und die aggressivsten und häufigsten Bots rausschzuschreiben und zu sperren - natürlich nicht Google oder Bing, obwohl beide allein schon ganz schön Traffic verursachen.

Link to comment
Share on other sites

Solche Bots lesen keine robots.txt, somit ist ein extra exclude in der robots völlig nutzlos. Die bessere Methode ist mittels Geotargeting, wo der Bot eine restricted page (also eine 404-Seite erhält und nicht wieder kommt) oder überhaupt diese bad behavior bots mittels bessere Methoden wie Bot-Trap oder honeypt project im Vorfeld schon abzuwehren. Ich nutze diese Methode schon seit Jahren sehr erfolgreich und wehre damit 99,99% von Spam, Hacker, usw. ab. Mit Geotargeting dazu sind es dann 100% ohne, dass ich mich da ständig darum kümmern muss, da alles automatisch abgesichert ist. Datenbanken werden zeitnah, sprich 1X täglich mittels Cron abgeglichen und Änderungen an Prestashop-Dateien sind nicht nötig (außer 1X um den Code einzubinden).

Link to comment
Share on other sites

Hi,

 

das kenne ich durchaus. Aufgrund der Häufigkeit konnte man aber noch nicht von einem Angriff sprechen. Inzwischen weiss ich, dass es sich wohl um einen komischen Robot handelt, der die Seiten indexiert. Mir war das dennoch nicht geheuer. Seither setze ich auf folgende .htaccess-Bestimmungen.

 

order allow,deny
deny from 192.168.2.100
deny from 192.168.2.101
deny from 192.168.2.102
deny from 192.168.2.103
allow from all

 

Die IPs eben entsprechend anpassen.

 

Viele Grüße,

Michael

 

Die angegebenen IP's gehören einen Deutschen Anbieter:

TNG-AS ennit server GmbH

Eine Anfrage/Beschwerde beim Provider wäre sinnvoll.

Link to comment
Share on other sites

Das Problem ist, dass jede Software etwas anderes ausliest. Zugriffe zuverlässig auszulesen geht nur direkt über die Zugriffe am Server. Am zuverlässigsten arbeiten die Tools, welche direkt am Server und nicht in der Datenbank des Programmes auslesen. Prestashop liest nur das aus wo auf Tabellen von Prestashop zugegriffen wird.

 

Suche im Netz nach bescounter von IT-Schmidt, Nürnberg. Dieses Tool arbeite am zuverlässigsten und du kannst dir auch genau welche Seite, wie oft und von wem besucht wurde auslesen. Das Tool arbeitet unsichtbar, also es weiss niemand, dass du "trackst, was ja in DE auf Grund der Datenschutzbestimmungen ja schon mal ein Problem darstellen kann, wenn du z.B. Google Analytics und so verwendest.

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...