Bot-Trap Module gegen Spider / Bot
Eingetragen von montviso (2188)
am 30.11.2015 - 10:10 Uhr in
am 30.11.2015 - 10:10 Uhr in
Welche Module verwendet Ihr, um unerwünschte Bots und Spider auszusperren?
Bei mir sind zur Zeit vor allem seokicks,ahrefs.com, seoscanners.net und noch ein paar andere sehr nervig.
Es gibt ja ein paar Module, aber die arbeiten wohl auch nicht alle zuverlässig.
Welche Module setzt ihr ein?
Oder sperrt ihr die über .htaccess bzw. robots.txt aus?
Verwendet Ihr dazu öffentliche Black-Lists (wo kriege ich die),oder sammelt Ihr selbst die IP-Adressen aus den Logs?
- Anmelden oder Registrieren um Kommentare zu schreiben
ich habe mit Honeypot
am 30.11.2015 - 11:15 Uhr
weitgehend für Ruhe gesorgt.
Es kommtn gelegentlich noch welche durch, die ich dann eben geduldig lösche.
Wenn mir ein IP-Adresse auffällt, ergänze ich den entsprechenden Eintrag in der .htaccess.
Grüße
Ronald
Hallo, ich denke dieses Modul
am 30.11.2015 - 11:43 Uhr
Hallo,
ich denke dieses Modul sollte ziemlich gut sein:
https://www.drupal.org/project/spiderslap
Es integriert ein unsichtbates Image oben in der Seite,
welches durch robots.txt Disallowed ist.
Eine Spider welche die robots.txt aufruft und dann trotzdem
das Image spidert, wird über die IP geblockt.
Das erscheint mir sehr sinnvoll.
MfG
Robert
https://awri.ch
Ich habe eine Schweizer Tastatur und daher kein scharfes ß ;-)
@Ronald Honeypot nützt ja
am 30.11.2015 - 12:10 Uhr
@Ronald
Honeypot nützt ja nichts gegen Spider, die Systematisch alle Node-IDs aufrufen.
Honeypot habe ich auch installiert und es hilft gegen die eine oder andere Spam-Registration, aber natürlich auch nicht gegen die allgegenwärtigen Deppen, die das per Hand machen.
@Robert,
danke, das Modul schaue ich mir mal näher an bzw. richte schon mal die Disallow-Regel in der robts.txt ein, damit Google und die anderen Guten sich dran gewöhnen...
LG Regina Oswald
-------------------------
Montviso - Internetdienstleistungen
http://www.montviso.de
das Modul klingt interessant
am 30.11.2015 - 13:56 Uhr
insbesondere, da es die "guten Spider", also Suchmaschinen-Bots nicht aussperrt.
Denn von Google & Co. wollen wir ja besucht werden.
Grüße
Ronald