"intelligenter" Website-Download?

Dieses Thema im Forum "Software" wurde erstellt von jensf, 30. August 2004.

  1. jensf

    jensf New Member

    Hallo
    kennt jemand ein tool, das zum Beispiel auf www.beispiel.de/download/ und dann von den seiten 12.htm bis 645.htm alle daten downloaden kann.
    dies ist nötig, da mir keine Seite bekannt ist, auf der all diese Seiten verlinkt sind.
    einfach immer aufzählend in gewissen Grenzen.
    Kenne nur pagesucker und konsorten, da ist dies nicht möglich.
    vielen Dank für den Tip

    Jens
     
  2. nanoloop

    nanoloop Active Member

    Gibbet nich.
     
  3. RaMa

    RaMa New Member

    öhm. ich würd dir gerne helfen.
    aber ich steig net ganz durch was du willst. :)
     
  4. nanoloop

    nanoloop Active Member

    Wenn ich es richtig verstanden habe, möchte er die Seiten 12 - 645 dl'en, aber nicht andere auf diesen Seiten verlinkte z.B. externe Links.
     
  5. Macci

    Macci ausgewandert.

    Wieso geht das nicht mit PageSucker?
    Da kann man die Downloadebenen einstellen ;)
     
  6. nanoloop

    nanoloop Active Member

    Yepp.

    Aber doch nur für die erste Ebene, oder?
     
  7. Macci

    Macci ausgewandert.

    Das sollte doch reichen, oder?
     
  8. nanoloop

    nanoloop Active Member

    Dann müsste er jede Seitennummer einzeln eingeben und es ist wohl sein Anliegen dies nicht tun zu müssen.
     
  9. Macci

    Macci ausgewandert.

    achso...tja...hmmm...
    *schulterzuck*
     
  10. jensf

    jensf New Member

    ja genau,
    mehrere Seiten, durchlaufend nummeriert sollten gesaugt werden. leider sit mir keine Seite bekannt mit den verlinkungen, daher mein anliegen.
    Eine Lösung wäre, eine html-Seite selber zu machen, ins netzt zu stellen, und dann diese zu saugen.
    aber eben, wenn's auch einfacher gegangen wäre.

    auf jeden fall, danke
    jens
     
  11. Olley

    Olley Gast

    kann man sowas als sitebetreiber unterbinden?
     
  12. nanoloop

    nanoloop Active Member

    Hab's zwar nicht verstanden, aber: bitte.

    :party:
     
  13. WoSoft

    WoSoft Debugger

    nimm doch einfach den IE/Speichern unter und dann unter Optionen die Tiefe (bis zu 5 Ebenen) und sonstiges einstellen.
     
  14. delta-c

    delta-c New Member

    Also am Terminal geht es mit
    Code:
    curl [url]http://www.beispiel.de/download/[/url][12-645].htm -O
    
    Allerdings lädt curl nur die HTML-Seiten runter, Eingebettete Bilder etc. nicht. Für letzteres müsstest Du das Programm wget installieren. (Gibt's mittles fink oder DarwinPorts).
    So long,
    Kai
     

Diese Seite empfehlen