Suche Bash Script um Links aus einer HTML Datei zu extrahieren und in eine Text Datei zu speichern
-
Folgendes Problem.
Ich habe eine HTML Datei mit verlinkten http urls.
Nun möchte ich den ganzen HTML Code entfernen, so daß nur noch die urls
übrig bleiben.Kennt ihr da ein gutes Bash Script das das kann? (ein Programm oder ähnliches würde mir auch reichen.)
-
Das geht auch ohne Skript mit folgendem Shell-Befehl:
sed -n -e 's/.*href="\([^"]*\)".*/\1/gp' [i]Dateiname[/i]
Martin
-
Geht sogar mit einem Einzeiler:
cat datei.html | sed "s/href/\nhref/g" | grep href | cut -d"\"" -f2 > datei_wo_die_links_hinsollen
Edit: Mist. Zu spät.
-
Danke an euch, das war genau das was ich gesucht habe.
-
ºgrimmsenº
schrieb:
Edit: Mist. Zu spät.
*stänker* Und umständlich obendrein.