Zitat:
Zitat von mrieglhofer
Dass Verfahren wird meist bei Netzwerk / Online Backup eingesetzt, um den Traffik zu minimieren.
|
Das ist korrekt - u. a. rsync arbeitet ähnlich.
Zitat:
Zitat von mrieglhofer
Sonst sehe ich keine Vorteile gegenüber einem Incremetal forever auf Fileebene. Vor allem nicht bei Bildern, bei denen Duplikate im Gegensatz zu Firmendokumente selten sind. Deduplizierung machst normal im Storage, weils da natürlich kostenmäßig am meisten bringt. Beim Backup ist die Kuh schon im Fluß.
|
Hier irrst du aber gewaltig. Klar: wenn man nur RAWs hat, dann würde auch eine "Dateiweise Deduplizierung" ausreichen. Aber gerade bei PSD-Dateien ändert sich eben nicht jedesmal die ganze Datei. Außerdem wird das Backup bei dieser Vorgehensweise beschleunigt, weil eben nicht vollständige Dateien kopiert werden sondern lediglich Blöcke - das ist ähnlich wie bei den Vorteilen Online-Synchronisation mit rsync. Man nutzt hier eben aus, dass die Lesegeschwindigkeiten meist deutlich über den Schreibgeschwindigkeiten liegen. QRecall hat zuerst vergleicht erst die Daten und erstellt ein entsprechendes Update-Profil - dann werden lediglich geänderte Blöcke übertragen. Das ganze wird noch kombiniert mit einem Filesystem-Watcher, so dass man die "Capture-Aktion" tatsächlich auch in sehr kurzen Intervallen mitlaufen lassen kann - wenn man das möchte.
Zitat:
Zitat von mrieglhofer
Warum das Verify tiefgehender arbeiten soll, das mußt mir mal erklären. Es kann auch nur seine Hashes in der Datenbank mit den Files am Mac abgleichen. Einzig im Falle, dass bei der Übertragung oder ein Archiv korrupt würde, könnte man ev. mit Redundanz was herstellen, aber das ist nicht Aufgabe eines Backups. Eher wirds wohl so sein, dass auf Grund der hohen Komplexität der Anwendung manchmal etwas korrupt wird und das repariert wird;-) Nein Scherz beiseite, ich kenne eine Menge solche Produkte, die wir wieder rausschmeissen mußten ;-)
Wichtig ist, dass man das halt mal durchdenkt und dann konsequent umsetzt.
|
Ich erkläre Dir das gerne. Das HFS+-Dateisystem hat keine besonders guten Eigenschaften in Bezug auf die Integrität von Daten (Im Vergleich zu beispielsweise ZFS). Viele Fehler in den Daten werden vom Dateisystem nicht erkannt. Gerade Mediendateien wie Videos, PSD oder RAWs bieten durch ihre Größe eine große Angriffsfläche. Mit einem QRecall-Archiv löst man dieses Problem auf einer anderen Ebene: Die Datenintegrität wird durch entsprechende Prüfsummen und Redunanz im Archiv sichergestellt. So können Defekte früher erkannt und im Idealfall noch repariert werden. Bei einer reinen Dateispiegelung auf eine andere (HFS+)-Festplatte werden sich mit der Zeit Fehler einschleichen die man im Zweifel erst lange Zeit später entdeckt - nämlich wenn man versucht eine alte Datei wieder zu benutzen.
Zitat:
Zitat von mrieglhofer
Das ist ja der Witz bei einem Konzept, dass man zuerst in Ruhe denkt, plant und umsetzt und nicht, wenn die Feuerwehr vor der Tür steht.
Ich habe auf meinem NAS ja nicht nur die Fotos, sondern alle Dokumente, alle Rechnungen, alle Programminstallationsdateien, usw.
Wenn sowas unwiderbringlich zerstört wird, ist das Meiste ja nicht mehr wiederbeschaffbar. Da sind die Fotos tatsächlich das kleinere Problem.
|
Ich benutze die Archive ja nicht nur für Fotos sondern ebenfalls für Quelltexte, Manuskripte den ganzen Büro/Buchhaltungs/Steuerkram und natürlich für ganze Systemsnapshots inkl. der installierten Programme und ihrer Einstellungen. Auch bei mir landet eine der Archivplatten im Tresor - eine andere ist außer Haus. NAS oder nicht ist für mich dabei völlig unabhängig. Ich kann das QRecall-Archiv auch auf ein NAS legen - ist kein Problem. Die Archive sind sowieso dafür ausgelegt die Daten mehrerer Rechner aufnunehmen - wo wiederrum die Deduplikation Vorteile bringt.
Gruß,
[neon]