Webclient und Fehlercode 403, kann doch nicht sein!!
-
hallo community, ich hab da mal ne frage. Ich hab mir automatisiert Webseiten runtergeladen mit Hilfe von Webclient. Ich lade 3 oder 4 Seiten von
Wikipedia, und speichere sie ab.Das funktioniert einwandfrei. Doch wenn die Liste an einen bestimmten Punkt kommt (immer eine Url von Wikipedia) dann bekomm ich jedesmal einen 403-er Fehlercode, obwohl das ein öffentlich zugängliche Seite ist.
Warum ist das so?? Danke für die hilfe
-
Bei welcher URL passiert das denn?
-
es ist egal bei welcher url, die urls variieren, aber es is immer ne wikipedia-seite, welche für die allgemeinheit bestimmt ist. vorhin war es "http://de.wikipedia.org/wiki/Cerebellum"
-
Ich würde mal vermuten, das sie einen Wächter eingebaut haben, der kontrolliert in welchen Zeitabständen ein Client die Daten/Seiten abruft und wenn ihm etwas auffällt er einen Fehler Code zurück schickt. Versuch es einfach mal mit:
System.Threading.Thread.Sleep(<Wert in Millisekunden>);
zwischen jeder Seitenanforderung.