Hi,
ich brauche ein Programm, welches mir eine komplette Website lokal speichert, damit ich diese offline betrachten kann.
Das Programm soll gleichzeitig beinhaltete Links sinnvoll umwandeln. Heisst: die Website soll sich bspw. lokal in
C:\Website_A\ befinden. Und die beinhalteten Links nicht aus dem Verzeichnis herausführen - also nicht
\verzeichnis_1\index.html (damit führt der Link auf C:\verzeichnis_1\index.html) heißen - sondern
..\verzeichnis_1\index.html (Link führt auf C:\Website_A\verzeichnis_1.index.html).
Es handelt sich konkret um
http://www.skoda-auto.com.
Die Website ist etwa 1,04 GB groß und enthält über 21.000 Dateien, das Programm sollte also damit klarkommen und schnell arbeiten.
Probiert bereits:
- httrack (viel zu langsam etwa 1 Nacht, keine Linkwandlung)
- WebWhacker (keine Linkwandlung)
- WebCopier (keine Linkwandlung)
- WebSpider (schnell, aber keine Linkwandlung)
- WebSite ****** Copier (sehr schnell, bricht nach 500 Dateien ab da Trial)
- A1 WebSite Download (keine Linkwandlung)