Traffic-Klau?
-
Ich weiß nicht wie ich das ganze benennen soll, aber ich versuche es einfach mal zu beschreiben.
Heute zwischen 14 und 16 Uhr hat sich ein Bot bei mir rumgetrieben der die Hauptseite, index.php, ca. 2x pro Sekunde aufgerufen hat. Und das ganze 2 Stunden lang. Bilder oder sowas wurden nicht geladen, und auch keine Links weiter verfolgt.
Es ist ja kein soo großer Traffic der da entstanden ist, trotzdem wäre es ärgerlich wenn sowas öfter vorkommt. Der Bot hatte den UserAgent "WordPress/FetchRSS Plugin", kennt den jemand? Vom Namen her denke ich mir das der halt meinen RSS-Feed prüft, aber dann muss der ja eine gewaltige Fehlfunktion gehabt haben...
Oder bin ich da in irgendeine Liste reingeraten?
EDIT:
Die IP-Adresse gehört meinem Hoster
HESSEN FRANKFURT CUSTOMER SERVER ALL-INKL.COM
-
BF_31 schrieb:
EDIT:
Die IP-Adresse gehört meinem Hoster
HESSEN FRANKFURT CUSTOMER SERVER ALL-INKL.COMROFLMAO

-
Villeicht hosten die für jemand der das laufen hat, oder <propaganda-mode> sie wollen dir mit Abischt Traffic unterjubeln dass du mehr bezahlen musst </propagande-mode>. Ist aber eher unrealistisch das könnte man ja dann viel besser machen
![:] 🙂](https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso)
Gruß
-
Das war ja nur ein Test, das nächste mal machen die das, wenn er sein Trafficlimit schon überzogen hat und dann werden die Bilder auch geladen.
-
BF_31 schrieb:
UserAgent "WordPress/FetchRSS Plugin", kennt den jemand?
google.
https://fetchrss.dev.java.net/Description
fetchrss polls weblogs (rss feeds) and e-mails the updates, one message per updated entry. The effect is comparable to the weblog author e-mailing you personally. fetchrss can run in the background on your desktop or server. I personally combine this with procmail to filter 'blog updates into their own folder in my IMAP account.wirst in zukunft noch mehr so kandidaten haben. ok, nich jeder ist so spaßig drauf, zweimal pro sekunde zu pollen, um ja nix zu verpassen. aber stell dich mal im nächsten jahr auf 1000 kunden ein, die einmal pro minute pollen. einmal pro minute dürfte keiner für unfair halten.
-
Na aber warum muss man denn immer nur die Startseite aufrufen? Wofür habe ich denn den RSS-Feed?
Wenn das öfter vorkommt mit 2x pro Sekunde dann sperr ich den UserAgent einfach aus. Einmal pro Minute wäre noch okay.
-
BF_31 schrieb:
Na aber warum muss man denn immer nur die Startseite aufrufen? Wofür habe ich denn den RSS-Feed?
falsch konfuguriert von dem kunden?
vielleicht willste in deinen scripts einfach die leser, die diesen rss-fetcher benutzen, mit dem rss-feed versorgen, auch wenn sie nur die hauptseite ansteuern?Wenn das öfter vorkommt mit 2x pro Sekunde dann sperr ich den UserAgent einfach aus. Einmal pro Minute wäre noch okay.
dann sperr doch wenigstens nur die ip aus. aber wie? per php-skripte, das trotzdem 30ms braucht, um zu starten und weitere 20 ms, umd die datenbank zu öffnen und zu laufen, das also nur 20-mal pro sekunde kann, und das dann bei 10 solchen kunden schon die grätsche machen würde?
vielleicht besser unten in den iptables. ganz einfach mit hash_limit. besser aber schwieriger mit recent.und ob du einmal pro minute dulden kannst, muß man halt schauen (wann bricht der server zusammen?). haste wie bei diesem forum den rss-feed als satisches file (sehr schnelle serverantwortzeit und hunderte von anfragen pro sekunde möglich) und machst nur alle paar stunde ein update des statischen files (wie hier)? dann ist klar, daß die leute nicht das file nehmen, sondern nach änderungen auf den hrml-seiten schauen.