Einer Erfahrung mit Pagesucker??

Dieses Thema im Forum "Software" wurde erstellt von alberti11, 10. Dezember 2003.

  1. alberti11

    alberti11 New Member

    Hallo Leute,

    wenn ich via Pagesucker mir einen Ordner mit einer site erstellt habe, geht das Betrachten auf dem Volume, auf dem das gebaggert hat gut. Kopiere ich aber den Ordner auf einen anderen Rechner oder CD, werden die Bilder nicht mehr gefunden, Text und einige animierte gifs werden angezeigt.
    Schaue ich in den site Ordner, kann ich aber auch keinen Unterordner mit den Bildern finden; der Ordner mit Namen "img " ist leer.

    Was mach ich falsch??
    Kann es sein, dass ich durch vorzeitigen Abbruch von Pagesucker verhindere, dass er die Bilder ordentlich ablegt? Dann müsste Pagesucker aber einen sehr gut versteckten cache haben.

    Oder gibt es für solche Zwecke ein Prog, das besser und durchsichtiger arbeitet?

    Für Hilfe dankbar

    Ali
     
  2. Macci

    Macci ausgewandert.

    Pagesucker aktualisiert gefundene Links auf den Ordner, den er anlegt. Wenn dieser Ordner irgendwoin verschoben wird, funktionieren natürlich auch die Links nicht mehr.
     
  3. alberti11

    alberti11 New Member

    Dann ist doch der Sinn eines solchen suckings völig daneben!

    Ich brauche dieses tool, weil ich umfangreiche WebArchive für meine Schüler auf CD zur Verfügung stellen will.

    Sei´s drum; habe jetzt mal ein anderes tool: WebGrabber ausprobiert; damit funktioniert es so wie ich es mir vorstelle.

    Ali
     
  4. ab

    ab New Member

  5. nanoloop

    nanoloop Active Member

    Ich habe vor einiger alle bereits erwähnten Web-Seiten-Saug-Progs genutzt, dazu WebDumperX und Mozillas Save-as Funktion:
    http://forum.macwelt.de/forum/showthread.php?s=&threadid=76559&highlight=pagesucker

    Spricht vielleicht nicht direkt dein Problem an alberti11, alle Progs haben anscheinend das gleiche Prob und sind für umfangreiche WebArchive für deine Schüler wahrscheinlich so meistens ungeeignet.

    Eine sorgfältig programmierte Webseite sollte doch wohl auch garnicht komplett zu saugen sein und wenn gibt es auch noch so etwas wie Copyright.
    Was genau du den Schülern zeigen willst weiß ich nicht: Anschauen, Quellcode inspizieren, Ideen zum nachmachen geben - ok. Anleitung zum Saugen und mit deinem an sich löblichen Angebot für die Schüler zeigst du ihnen, daß dies möglich ist und erzeugst schnell einen ungewollten Eindruck - nein.
    Zumindest solltest du dies deinen Schülern klarmachen.
     
  6. frankwatch

    frankwatch Gast

    probiere mal "sitesucker", bei versiontracker, ist freeware, hatte noch nie probleme damit.
     
  7. alberti11

    alberti11 New Member

    Hallo Leute,

    wenn ich via Pagesucker mir einen Ordner mit einer site erstellt habe, geht das Betrachten auf dem Volume, auf dem das gebaggert hat gut. Kopiere ich aber den Ordner auf einen anderen Rechner oder CD, werden die Bilder nicht mehr gefunden, Text und einige animierte gifs werden angezeigt.
    Schaue ich in den site Ordner, kann ich aber auch keinen Unterordner mit den Bildern finden; der Ordner mit Namen "img " ist leer.

    Was mach ich falsch??
    Kann es sein, dass ich durch vorzeitigen Abbruch von Pagesucker verhindere, dass er die Bilder ordentlich ablegt? Dann müsste Pagesucker aber einen sehr gut versteckten cache haben.

    Oder gibt es für solche Zwecke ein Prog, das besser und durchsichtiger arbeitet?

    Für Hilfe dankbar

    Ali
     
  8. Macci

    Macci ausgewandert.

    Pagesucker aktualisiert gefundene Links auf den Ordner, den er anlegt. Wenn dieser Ordner irgendwoin verschoben wird, funktionieren natürlich auch die Links nicht mehr.
     
  9. alberti11

    alberti11 New Member

    Dann ist doch der Sinn eines solchen suckings völig daneben!

    Ich brauche dieses tool, weil ich umfangreiche WebArchive für meine Schüler auf CD zur Verfügung stellen will.

    Sei´s drum; habe jetzt mal ein anderes tool: WebGrabber ausprobiert; damit funktioniert es so wie ich es mir vorstelle.

    Ali
     
  10. ab

    ab New Member

  11. nanoloop

    nanoloop Active Member

    Ich habe vor einiger alle bereits erwähnten Web-Seiten-Saug-Progs genutzt, dazu WebDumperX und Mozillas Save-as Funktion:
    http://forum.macwelt.de/forum/showthread.php?s=&threadid=76559&highlight=pagesucker

    Spricht vielleicht nicht direkt dein Problem an alberti11, alle Progs haben anscheinend das gleiche Prob und sind für umfangreiche WebArchive für deine Schüler wahrscheinlich so meistens ungeeignet.

    Eine sorgfältig programmierte Webseite sollte doch wohl auch garnicht komplett zu saugen sein und wenn gibt es auch noch so etwas wie Copyright.
    Was genau du den Schülern zeigen willst weiß ich nicht: Anschauen, Quellcode inspizieren, Ideen zum nachmachen geben - ok. Anleitung zum Saugen und mit deinem an sich löblichen Angebot für die Schüler zeigst du ihnen, daß dies möglich ist und erzeugst schnell einen ungewollten Eindruck - nein.
    Zumindest solltest du dies deinen Schülern klarmachen.
     
  12. frankwatch

    frankwatch Gast

    probiere mal "sitesucker", bei versiontracker, ist freeware, hatte noch nie probleme damit.
     

Diese Seite empfehlen