Systempflege Mac OS X

Dieses Thema im Forum "Hardware" wurde erstellt von kegon, 22. Januar 2002.

  1. kegon

    kegon New Member

    Hallo,

    mich würde mal interessieren, ob jemand UFS als Filesystem gewählt hat. Fragmentiert die HD dort auch so stark wie bei der Verwendung von HFS +? Insbesondere meine externe HD (Firewire) ist nach einem Tag total zerschossen, Disk Warrior braucht ca 3 h bis alles wieder in Ordnung ist. Auf dem externen Volume habe ich allerdings neben meinen Daten noch shareware, die ich niemals auf der eingebeuten HD installieren würde.

    Darüber hinaus hat das Directory nach etwa einem Monat (der Rechner PB 400 384 MB 10 GB läuft täglich von früh bis spät) einige Fehler. Der Vollständigkeit halber - den Thread habe ich schliesslich "Systempflege" getauft - noch ein Tip, der bei mir sehr positive Auswirkungen auf die Peformance hat (alle zwei Monate).

    Prebinding updaten!

    sudo update_prebinding -verbose -root /

    Kann einen Moment dauern, dann wars aber auch dringend nötig.

    Vielleicht hat noch jemand einen Tip, wie man das System performant und fehlerfrei hält... so long
     
  2. gratefulmac

    gratefulmac New Member

    UFS als Filesystem werden wohl die wenigsten haben.Die meisten,da sie auch die Classicumgebung brauchen,arbeiten mit HFS+.Auf der Ebene nimmt man die Prog. Xoptimize,MacJanitor zur Systempflege.
     
  3. DonRene

    DonRene New Member

    geh mal hier über suchen nach "defrafmentieren von x " oder so da gibt es beiträge und dann wirst du lesen das ein unix garnicht fragmentiert.
     
  4. DonRene

    DonRene New Member

    hier ein beitrag zu diesem thema

    Es bringt nix, denn nach der Fragmentierung wird das Dateisystem sehr schnell wieder einen fuer die Nutzungsweise des Dateisystems charakteristischen Fragmentierungslevel anstreben und dann dort verweilen.
    Ausserdem spielt die Laenge der Fragmente eine Rolle. Linux verwendet kernelintern ein Readahead von 16 Blocks. Das bedeutet: Wenn eine Datei sequentiell durchgelesen wird (weit ueber 95% alle Lesezugriffe!), liest Linux bis zu 16 Bloecks am Stueck voraus, um den kernelinternen Cache vorzugluehen, in der Hoffnung, dass diese Bloecke gleich von dem betreffenden Programm verlangt werden.
    Wenn die Fragmente also groesser als 16 Bloecke sind (die meisten sind das, siehe unten), dann ist es letztendlich egal, ob die Datei fragmentiert ist oder nicht, weil der Seek in den Readaheads untergeht. Nur Fragmente, die kleiner sind als 16 Bloecke wirken sich wirklich schaedlich auf die Leseperformance aus.
    Das ext2-Dateisystem schreibt Dateien nun auch mit einer Art writeahead, aeh, mit Preallocation. Wenn Du in einem ext2-Dateisystem einen Block schreibst, belegt das Dateisystem gleich bis zu 7 weitere Bloecke in Folge fuer diese Datei. Zwei konkurrierende Schreibzugriffe in einem Verzeichnis wuerden also nicht Bloecke der Form
    121212121212
    anordnen, sondern eine Blockfolge
    1ppppppp2qqqqqqq
    erzeugen, wobei jeweils 1 und 2 geschriebene Bloecke der Dateien 1 und 2 sind und p und q fuer 1 bzw. 2 vorbestellte Bloecke sind. Werden 1 und 2 konkurrierend verlaengert, entsteht so
    11111111222222221ppppppp2qqqqqqqq
    und so weiter. Auf diese Weise wird die schaedliche (kleine) Fragmentierung weitestgehend vermieden. Das ganze Verfahren ist eine Verallgemeinerung des Fragment/Block-Verfahrens des BSD Fast Filing Systems.
    Ausserdem muss man als Anwender auf einem Multitaskingsystem auch noch zwischen Performance und Durchsatz unterscheiden: Performance ist das, was ein Anwender mit einem einzelnen Prozess maximal aus der Platte an MB/sec rauslutschen kann. Durchsatz ist das, was die Platte ueber alle Anwender und Prozesse gerechnet an MB/sec ausspuckt.
    In Multitasking-Systemen ist der Durchsatz oft sehr viel groesser als die Performance. Linux hat Algorithmen, die den Durchsatz, nicht die Performance des System erhoehen. Zum Beispiel werden Zugriffe auf die Festplatte, die in der Wait Queue der Disk stehen, nach Blocknummern aufsteigend sortiert. Mit einem Saegezahn-Algorithmus klettert der Kopf der Platte zu den hohen Blocknummern und serviced die Requests, um dann in einem long seek nach unten zu zucken und die naechste Runde zu drehen. (Nein, das ist nicht ganz der Fahrstuhl-Algorithmus: Mit dem waren die Latenzen/Service Times zu hoch und der Algorithmus ist nicht fair). Ausserdem werden aufeinanderfolgende Requests fuer denselben Prozess von Linux zu einem Request groesserer Groesse zusammengefasst (geclustert).
    Durch eine solche Sortierung erfolgen die Lesezugriffe nicht in der Reihenfolge und mit der Groesse, die der Prozess ausgegeben hat, sondern in der Reihenfolge und mit einer Groesse, die der Platte genehm ist. Auf diese Weise werden die Effekte von grosser Fragmentierung weitgehend ueberdeckt - nur kleine Fragmente wirken sich schaedlich auf den Durchsatz auf.
    Und zum Schluss liegt ueber all diesem auch noch der Buffer Cache des Betriebssystems, d.h. beim zweiten Leseversuch kommt sowieso alles aus dem Ram und die Anordnung der Daten auf der Platte ist vollkommen schnurz.
    Defragmentierung ist Zeitverschwendung,
    (Quelle SuSE)
    MfG
     
  5. kegon

    kegon New Member

    Hmm, schon klar, Xoptimize macht nichts anderes als verbose (updaten des Prebindings). Mac Janitor ist sicherlich auch wichtig.

    Bin ich denn der einzige, der seine Platten defragmentieren muss? So manche Software ist nämlich noch sehr unsauber programmiert (z.B. der Virenscanner von Norten hat bei mir schnell wieder Sayonara gesagt, das Ding ist nichtmal beta, das ist bestenfalls ein Preview)

    Funktioniert in deinem Terminal FSCK? Bei mir tuts das nicht, wäre aber klasse, dann könnte ich den Diskwarrior sparen...
     
  6. kegon

    kegon New Member

    Das glaube ich nicht, beim NTFS ist dieser Mythos auch überholt. Das beschriebene System verhindert zwar weitestgehend die Fragmentierung, verhindert aber nicht, dass z.B. ein fetter Block am Ende der HD abgelegt ist und dazwischen ein paar GB frei bleiben. In Solaris und AIX gibts sogar CronJobs fürs defragmentieren. Irgendwie kann ich unter OS X diese Cronjobs nicht einsehen, geschweige denn steuern... Sicherlich ist es unter OS X nicht so schlimm wie auf der Dose, die ich leider auch benutzen muss. Klar ist, gepflegte Laufwerke leben länger und machen wesentlich weniger Probleme, egal ob OS X, IRIX AIX SOLARIS... Gibt es dazu eigentlich eine Aussage von Apple? Mache mich mal auf die Suche... so long
     
  7. DonRene

    DonRene New Member

    das war jetzt nur ein beitrag von vielen, das schreiben noch mehr leute die sich mit linux und sonem kram auskennen
     
  8. DonRene

    DonRene New Member

    das war jetzt nur ein beitrag von vielen, das schreiben noch mehr leute die sich mit linux und sonem kram auskennen
     
  9. gratefulmac

    gratefulmac New Member

    @Kegon
    "Mach mal fsck-y" ist hier im Forum die Standardaufforderung,wenn sonst nichts mehr geht.Ich bin kein Terminal-Freak.Deshalb habe ich "fsck" noch nie aus dem Terminal aufgerufen.Ich mach das ab u. zu beim Startvorgang im Rahmen der Systempflege.
     
  10. kegon

    kegon New Member

    @greatfulmac
    fsck -y: Das -y besagt nur, dass man auf jede Anfrage des Systems mit yes antwortet, das ist nicht ganz ungefährlich. Trotzdem vielen Dank.

    Bei Apple scheint das Fragproblem schon bekannt zu sein. Bleibe dran...
     
  11. DonRene

    DonRene New Member

  12. baltar

    baltar New Member

    Ganz kurz zu den Systemtools.

    Unter Unix (BSD,Linux) braucht man den ganzen Kram nicht. Entweder funktioniert es Automatisch, wird nicht benötigt, oder Freewaretools (welche Komandozeilenschlagen als GUI leichter nutzbar machen) sind verfügbar. Neue Wundertools kann u. wird man nicht bekommen.

    MfG

    PS: Was für OSX noch fehlt, ist ein 1:1 Backup Teil. Dann könnte man das Systemflege Thema zu den Akten legen.....
     
  13. kegon

    kegon New Member

    Habs gemacht, der Output ist bemerkenswert, da dort zu lesen ist, zu welchem Grad die Platte fragmentiert ist. Von 5 UNIX-Admins die ich befragte defragmentiert allerdings nur 1er regelmäßig die HDs...
     
  14. kegon

    kegon New Member

    da bin ich bei dir, vermisse ebenfalls ein Backuptool schmerzlichst...
     
  15. baltar

    baltar New Member

    Würde ich als Admin "Arbeiten" gäbs auf
    allen Rechner mind. jede Woche ein Defrag.

    Dazu den Freien Speicher Nullen und das Netzwerkkabel mit 1000 Pings Testen.

    Das Arbeitsleben "könnte" so schön sein......

    MfG
     
  16. mkerschi

    mkerschi New Member

    Warum nicht den Norton Disk Doctor???
    Ab Version 6.0.3 kommt er auch mit OS X Dateien zurecht, repariert und defragmentiert.
    Man muss allerdings von einer ext. HD oder der CD starten.

    Michael
     
  17. kegon

    kegon New Member

    Hmm, die Erfahrungen, die ich mit Norten-Tools in jüngster Zeit machen musste halten mich davon ab, Software dieses Hauses zu verwenden. Es ist in der Softwareentwicklung ein klares Not to do Previews als Beta-Versionen zu deklarieren! Darüber hinaus sind die Norton-Produkte überteuert und extrem schlampig programmiert.
     
  18. gratefulmac

    gratefulmac New Member

    Ich habe OS X seit 21.5.2001 .Ich hatte bisher überhaupt nicht das Bedürfniss irgendein Nortonprodukt zu installieren.Mit den oben genannten Tools komme ich gut aus.
    Solange wie X noch ein Exotenprodukt ist werde ich nicht mal ein Virusprog.raufpacken.
    Wenn schon ,dann keine Beta-beta Versionen.
     
  19. henningberg

    henningberg New Member

    wie?
    Danke, Henning
     
  20. henningberg

    henningberg New Member

    schließe mich kegon an. NU macht mehr Ärger als es nutzt.
    Henning
     

Diese Seite empfehlen