Tote links finden
-
Hi,
kennt ihr ein Linux-Script, mit dem man tote Links in einer html-Verzeichnisstruktur suchen kann?
-
Google: link checker -> http://linkchecker.sourceforge.net/
-
rüdiger schrieb:
Google: link checker -> http://linkchecker.sourceforge.net/
funktioniert. aber:
Q: I see LinkChecker gets a /robots.txt file for every site it checks. What is that about?
A: LinkChecker follows the robots.txt exclusion standard. To avoid misuse of LinkChecker, you cannot turn this feature off. See the Web Robot pages and the Spidering report for more info.
Edit: ist doch irgendwie suboptimal. zumindest sehe ich keine option, alle links auf einer seite (www.example.com) auf validität zu prüfen. wenn ich per --ignore-url alle anderen seiten verbiete, prüft er externe links nicht.
-
Das Ding liegt aber bei SourceForge → fork es
