Tool zum Ziehen aller Websiten einer URL
-
Morgen,
ich suche ein Tool, mit dem z.B. alle Seiten von www.xyz.de gezogen und auf meiner Festplatte gespeichert werden. -> Idealerweise zum Offline lesen. Also inklusive interne Links etc.
Gibt es sowas schon, oder muss ich mir die Mühe machen, das selbst zu programmieren?
-
http://www.jump-to.com/shareware/sh.php?sort=Category&cat=Network %26 Internet::Offline Browsers
http://www.wintotal.de/softw/index.php?rb=12&sort=liz
-
Danke.
wusste nicht, dass sich sowas "offline-Browser" nennt, sonst hätt ich selbst danach gegoogelt.
thx again
-
Gibts das auch, damit man wirklich alles original bekommt??? (also mit PHP Dateien...) Ich wills nich, aber würde mich mal interessieren (UND is sowas legal???)...
cya WirrWar2850.
-
@NewProggie, schau die mal wget an. Gibt glaube ich sogar eine ferig kompilierte Windowsversion davon. Damit kannst du theoretisch das "komplette" Internet herunterladen. (Einstellbare Linktiefe/Domainbegrenzung usw).
-
WirrWar2850 schrieb:
Gibts das auch, damit man wirklich alles original bekommt??? (also mit PHP Dateien...) Ich wills nich, aber würde mich mal interessieren (UND is sowas legal???)...
Natürlich geht das nicht, der Server gibt immer nur das geparste aus ausser du greifst per FTP auf das File zu oder der zuständige Serveradmin ist ein sog. 'Genius Trollicus' und hats falsch eingestellt...