Mein WebSurfbot...



  • Kann man irgendwie filtern wenn jemand so einen Surfbot benutzt?

    Surfbot sprich: Ein programm das automatisch Websiten (in einer Domain) über IE besucht, Also ein Surfer-bot.

    z.B.:
    NAch 3 Sekunden öffnet die Seite www.Seite.com. Dann nach 4 Sekunden die Seite www.Seite.com/index.html
    Wieder 2 Sekunden später die Seite www.Seite.com besucht.
    Dann 5 Sekunden später www.Seite.com/main.html etc. etc.

    Wenn ja, wie setzt man da an ?



  • Wüsste da keinen zuverlässigen Schutz - du könntest natürlich die Browserkennung auswerten, aber die kann man ja frei wählen



  • Willst du etwa ein Surfbot zum Geldverdienen schreiben ?
    Wenn ja, ist das der falsche Ansatz!



  • [nUMERUS] schrieb:

    Willst du etwa ein Surfbot zum Geldverdienen schreiben?

    Lies dir nochmal den Beitrag durch und stell bitte nochmal diese Frage... Natürlich nicht! Er will bestimmt seine Website davor schützen!

    ---

    Bei PHP gibt es Funktionen zum Auswerten der Zeit, wie lange der Besucher auf der Seite ist... Du musst dir also eine Funktion schreiben, die auswerten, wie lange der Besucher drin ist, und wenn die Zeit kleiner als z.B. 2 Sekunden ist, kannst du dabvon ausgehen, dass es sich um einen Surfbot handelt und ihn dann "rausschmeißen". Das funktioniert natürlich nur dann, wenn das Programm nicht die Domain abspeichert, also in eine Liste aufnimmt. Wenn ja, und das Programm holt sich nur anhand der Domain, die es in der Liste hat, die Seiten, dann geht das nicht. Also leider nur ein halber Schutz.
    Zweite Möglichkeit ist, dass du im FTP-Server in allen Ordnern, die keiner ohne Authentifizierung besuchen darf, die Sicherheitseinstellungen, also die Freigabe, so ändeerst, das bei normalen Besuchern die berühmte Forbidden-Seite erscheint. Dann sieht das Programm auch nicht die Dateien in diesem Ordner, auch nicht, wenn er sie direkt anwählt.



  • Blumentopf schrieb:

    Kann man irgendwie filtern wenn jemand so einen Surfbot benutzt?

    Hatte das komischerweise übersehen, sry 🙄

    Windoof schrieb:

    wenn die Zeit kleiner als z.B. 2 Sekunden ist, kannst du dabvon ausgehen, dass es sich um einen Surfbot handelt und ihn dann "rausschmeißen".

    Ein guter Webbot, bleibt bis zu 5-10 Minuten auf der Seite!

    Windoof schrieb:

    Das funktioniert natürlich nur dann, wenn das Programm nicht die Domain abspeichert, also in eine Liste aufnimmt. Wenn ja, und das Programm holt sich nur anhand der Domain, die es in der Liste hat, die Seiten, dann geht das nicht. Also leider nur ein halber Schutz.

    Hm, ? 😕

    Windoof schrieb:

    Zweite Möglichkeit ist, dass du im FTP-Server in allen Ordnern, die keiner ohne Authentifizierung besuchen darf, die Sicherheitseinstellungen, also die Freigabe, so ändeerst, das bei normalen Besuchern die berühmte Forbidden-Seite erscheint. Dann sieht das Programm auch nicht die Dateien in diesem Ordner, auch nicht, wenn er sie direkt anwählt.

    Das ist ja nur bei wenigen Seiten der Fall, dass sich nicht wirklich lohnen kann.

    ALso die BEste Lösung ist, was nicht wirklich Surrf/User-freundlich ist, dass man bei der Startseite erst eine Zahl eingeben muss( in einem Bild erzeucht ), das durch Pixelfehler oder mutierten Zahlen/Buchstaben per CGI erzeugt wurde.
    Somit gelangt der User erst auf die Mainpage.
    Natüerlich muss dann per Session & sonstigen abgespeichert werden, dass das Password erfolgreich eingegeben wurden.

    Bye



  • ]nUMERUS[ schrieb:

    Windoof schrieb:

    wenn die Zeit kleiner als z.B. 2 Sekunden ist, kannst du dabvon ausgehen, dass es sich um einen Surfbot handelt und ihn dann "rausschmeißen".

    Ein guter Webbot, bleibt bis zu 5-10 Minuten auf der Seite!

    Ich denke, dass er den Abstand zwischen 2 Seitenaufrufen meinte (darauf bezog sich imho auch der nächste Kommentar) - ich denke aber, dass dies der falsche Ansatz ist. Bekannte Surfbots kannst du evtl. über die Browserkennung filtern, aber wenn sich der Surfbot als normaler Browser ausgibt hast du wohl wenig Chancen.

    Wozu eigentlich das Ganze?



  • Nach einigen Recherchen und auch Experimenten bin ich zum Schluß gekommen das es gegen einige Surfbots keinen Schutz gibt, ausgenommen die Seiten wo man sich erst mal über ein Pixelbild einlesen einloggen kann - doch selbst da ist man einmal eingeloggt kann man den bot laufen lassen.

    Ein Script das die Hits auf eine Seite zählt in z.b. einer Minute funzt auch nicht mehr wenn der bot nicht auf die seiten einhämmert sondern wirklich nur gemütlich umhersurft.

    Webbrowser Opera hat sogar eine Art "bot" schon miteingebaut, in Visual Basic hat man mit dem Webbrowser Control (also der normale Ineternt Explorer ) einen guten bot in 30 minuten geschrieben...

    Die letze Möglichkeit bleibt die Bandbreite eines users abzufragen über eine bestimmte domain oder die links auszuwerten, was zeit/kostenintensiv wäre. 😡

    ???


Anmelden zum Antworten