Webclient und Fehlercode 403, kann doch nicht sein!!



  • hallo community, ich hab da mal ne frage. Ich hab mir automatisiert Webseiten runtergeladen mit Hilfe von Webclient. Ich lade 3 oder 4 Seiten von
    Wikipedia, und speichere sie ab.

    Das funktioniert einwandfrei. Doch wenn die Liste an einen bestimmten Punkt kommt (immer eine Url von Wikipedia) dann bekomm ich jedesmal einen 403-er Fehlercode, obwohl das ein öffentlich zugängliche Seite ist.

    Warum ist das so?? Danke für die hilfe



  • Bei welcher URL passiert das denn?



  • es ist egal bei welcher url, die urls variieren, aber es is immer ne wikipedia-seite, welche für die allgemeinheit bestimmt ist. vorhin war es "http://de.wikipedia.org/wiki/Cerebellum"



  • Ich würde mal vermuten, das sie einen Wächter eingebaut haben, der kontrolliert in welchen Zeitabständen ein Client die Daten/Seiten abruft und wenn ihm etwas auffällt er einen Fehler Code zurück schickt. Versuch es einfach mal mit:

    System.Threading.Thread.Sleep(<Wert in Millisekunden>);

    zwischen jeder Seitenanforderung.


Log in to reply