Automatisiertes Downloaden von webpage Bildern



  • Hallo

    (ich hoffe das thema ist jetzt nicht voellig falsch in diesem Forum)

    Ich wuerde gerne folgenden Vorgang automatisieren, wobei es egal ist wie (in bezug auf entwicklungs umgebung , php, java, c++ , etc ..., wuerde es gerne dort machen womit es am einfachsten realisieren kann )

    Zur Aufgabe:

    Ich wuerde gerne von einer Daily comic webpage, den daily comic runterladen. Und zwar alle, man kann dort im archiv alles anschauen. Manuell gehts ja, aber naja laestig und zeitaufwendig.

    Was ich weiss ist dir Url zu jedem comic, heist www.whatsoever.com/comic?<date>
    von dieser mit php oder sontogem script erstellten Page wuerde ich dann gerne bild x speichern.

    Das wuerde ich gerne automatisieren, wenn moeglich ohne grossen Aufwand.

    kann mir jemand sagen mit welcher umgebung man zu dem Ziel am einfachsten kommt?

    z.B es wuerde genuegnen, wenn ich von einer url alle im webbrowser angezeigten bilder runterladen koennte.

    Wenn der ganze process lange dauert, macht das nix.

    Geht das irgendwie einfach.

    Ich moechte ja keinen Broswer selber programmieren, (habe leider auch keine ahnung wie man das macht)

    Im endeffekt will ja nur bei gegebener url, ein bestimmtes oder wahlweise alle Bilder, die zur Anzeige dieser Page notwendig sind bekommen.

    (eine recht umstaendliche loesung dir mir so einfaellt ware vielleicht ein tool mit c++ schreiben, das einen browser mit der url oeffnet, und aus dem temp/cache daten des browsers das bild fischt, (der dateiname ist auch errechenbar) dann den browser schliessen und alles wieder von vorne. )

    Vielen Dank fuer alle Tipps

    Florian

    Ps: oder gibst irgendwo im WWW ein tool das sowas erledigt???



  • Es gibt ein Firefox Add-on mit dem man alle Bilder einer Internetseite runterladen kann:

    https://addons.mozilla.org/firefox/2503/

    Wenn du das ganz automatisieren möchtest könntest du das z.B. mit wget machen, kannst dafür z.B. die Optionen -p oder -A verwenden (siehe wget --help).
    Musst dir halt nur noch irgendwie die URL zusammenbauen die du wget übergibst, was aber kein Problem sein sollte wenn das durch das aktuelle Datum festgelegt wird.
    z.B. so:

    wget -A.jpg -r -l1 --no-parent www.whatsoever.com/comic?<date>

    Kannst du ja in eine Batch-Datei einbauen wo du auch die url zusammenbaust und die Batchdatei in den Autostart schieben oder zu einer bestimmten Tageszeit ausführen lassen etc.

    Geht natürlich auch mit einem kleinen Perl/Python/whatever Script, einfach den Source der Seite holen, diesen nach entsprechenden Image-Verweisen scannen (z.B. mit einem regulären Ausdruck) und dann diese abholen..

    MfG


Anmelden zum Antworten