Rekursives Runterladen einer Webseite
-
Hallo, ich suche ein Tool oder vorzugsweise auch Firefox-Extension, die Webseiten rekursiv runterlädt. Ich hab mir grade mal ein paar Extensions, wie DownThemAll angeschaut, aber die laden nur eine Seite und deren Links, aber nicht die Links auf den verlinkten Webseiten usw.. Gibt es eine Extension, wo man die Rekursionstiefe (wie z.b. 3 Unterseiten) angeben kann?
-
Ich habe HTTrack und der macht das eigentlich recht sauber.
Keine Ahnung wie der intern genau funktioniert, müsste ein kleiner http-server sein, der sich über ein Browserfrontend fernsteuern lässt
-
Ich glaub der Offline-Explorer kann das.
-
wget. Gibts bestimmt auch irgendwie, irgendwo für Windows.
-
Scrapbook
-
wget -r
hinweis schrieb:
Scrapbook
Aber ob der das kann weiß ich nicht. Aber zum Offline lesen ist es genial!
-
wget -N -nv -r -l inf -k -K -p http://some.site.com/
Bei bedarf noch -H -D allowed.com,hosts.com -X /disallowed/,/directories/ anhängen.
-
Vielen Dank für Eure Antworten!
Ich habs eben mal mit der Windows-Portierung von wget probiert. Das klappt eigentlich schon ganz fein. Wisst Ihr auch, wie man eine Seite, wie z.B. www.spiegel.de richtig runterladen kann? Wenn ich wget -N -nv -r -l inf -k -K -p www.spiegel.de nehme werden gehen die Links, wie z.B. Politik, Wirtschaft usw. nicht, weil die nur auf einen Ordner zeigen, aber nicht auf die index.html in diesem Ordner.
-
Gibt es eigentlich eine Möglichkeit sich nur anzuschauen, welche Seiten sich im aktuellem www-Ordner befinden, so a ala "index.of"
index.html seite2.html seite3.hmtl seite4.html