Archiv verlassen und diese Seite im Standarddesign anzeigen : Ein RAID ist kein Backup! ^^
Aus gegebenem Anlaß und abgetrennt aus Dana's Notebook-Quiz:
Na selbstverständlich rede ich von einem NAS mit mehreren Platten, die in einem Raid laufen..:D - und das ist auf jeden Fall eine Sicherhng. Gibt es überhaupt NAS-Systeme mit nur einer Platte?
In jedem Fall ist es einfach komfortabler als immer manuell von Platte A auf Platte B zu schieben.
Hier liegt bereits der Hase im Pfeffer: Sicherheit vs. Komfort stehen sich diametral gegenüber. :P
RAID ist kein Backup
"Es gibt einen bedeutenden Unterschied zwischen RAID und Backup Obwohl auf zwei oder sogar mehr Platten simultan geschrieben wird, handelt es sich nicht um ein Backup. Für den Fall, dass das Betriebssystem, eine Anwendungssoftware oder ein Benutzer für eine Inkonsistenz bei den Daten sorgt, werden inkonsistente Daten simultan auf alle RAID-Platten geschrieben. Bei einem Backup hingegen werden Daten kopiert und auf einem weiteren Datenträger gespeichert, der nicht das ursprüngliche Speichersystem ist. Das Backup ist somit zeitlich und räumlich von den Originaldaten entkoppelt. Bereits gesicherte Daten können nicht durch Betriebssystem- oder Software-Funktionen beschädigt werden, es sei denn, es wird ein Backup von bereits inkonsistenten Daten angelegt." (https://www.acronis.com/de-de/articles/whats-raid10-and-why-should-i-use-it/)
Oder kurz zusammengefasst: RAID erhöht die Datenverfügbarkeit. Ein Backup erhöht die Datensicherheit (Safety). Das ist der einfache aber wichtige Unterschied. ;) In diesem Sinne...
Einen arbeitsreichen Mittwoch ohne Datenverlust wünscht,
meshua
(@now: TimeMachine: Backing up 210,5 MB of 530,0 MB :D)
Kurt Weinmeister
31.01.2018, 09:30
(@now: TimeMachine: Backing up 210,5 MB of 530,0 MB :D)
Ich habe mir eine Null und eine Eins in den Safe gelegt (Backup).
Damit läßt sich der Rest durch simples Aneinandereihen wieder rekonstruieren.
Korrekt zusammengefasst :D
Sicherheit und Komfort müssen sich jedoch nicht diametral gegenüberstehen.
Wer die Möglichkeit hat, 2 NAS örtlich getrennt zu betreiben, hat eine sichere und komfortable Lösung.
Ich habe eine NAS mit RAID zu Hause und eine im Büro.
Nachts werden Daten, die tagsüber neu dazu gekommen sind oder geändert haben über eine VPN Verbindung auf's andere System übertragen und verschlüsselt gespeichert. So sind sowohl die geschäftlichen wie auch die privaten Daten bestens gesichert.
Eine zweite NAS kann man ja auch bei einem Kollegen oder virtuell bei einem Hoster betreiben. Muss man halt mal einrichten, aber dann läuft das völlig autonom und man bekommt jeden Morgen eine Mail, dass der Backup erfolgreich durchgeführt wurde ...
So ist es. Bei mir laufen jeden Tag verschiedene Backup-Jobs mit Duplicati, die mir meine Daten auf verschiedene Ziele verschlüsselt sichert. Als Ziele habe ich einen zweiten Rechner zu Hause, Cloud-Speicher und zwei angemietete Server.
Von Zeit zu Zeit oder ich viele neue/geänderte Daten (z.B. Fotos) gibt es noch Backups auf externe Medien/Festplatten.
Moin, moin,
Oder kurz zusammengefasst: RAID erhöht die Datenverfügbarkeit. Ein Backup erhöht die Datensicherheit (Safety). Das ist der einfache aber wichtige Unterschied. ;) In diesem Sinne...
sorry, aber das unterschreibe ich in der Form auch nicht so.
1.) Nicht jedes RAID-Level erhöht die Verfügbarkeit.
2.) Manche RAID-Level erhöhen auch die Datensicherheit bzgl. Hardwaredefekten, weil Backups nicht brandaktuell sind.
3.) I.d.R. erhöhen RAID-Ansätze die Performance (Ausnahme: gewisse RAID-Level auf Software-Basis).
4.) Ein Backup dient der kurzfristigen Wiederherstellung eines Systems.
5.) Sicherung und Archivierung sollte man konzeptionell vom Backup unterscheiden und trennen.
6.) Jeder Datenspeicher, der im Zugriff ist, kann unwiederbringlich verloren gehen - egal ob er aktuelle Daten, Backup-Daten, Sicherungen oder Archivierungen enthält.
Die Liste lässt sich noch weiter fortsetzen...
Dat Ei
Ich mache mein Backup auf ein RAID-System. Ist das jetzt auch kein Backup?
@Dat Ei
Die Zusammenfassung von meshua halte ich grundsätzlich für richtig.
Ja, RAID 0 ist bei den heutigen gebräuchlichen RAID Leveln der Spezialfall, der das Risiko für Datenverlust durch Hardware Defekt verdoppelt. Dein 2. Punkt ist mMn Datenverfügbarkeit, weil wie in Deinem Beispiel der Ausfall einer Platte verkraftet werden kann. Wenn Schrott wichtige Daten überschreibt wird hilft auch das RAID nichts. Da braucht es dann das Backup.
RAID 1 würde ich beim Thema Performance als Ausnahme sehen und Software RAID kann heutezutage auch deutlich schneller als Hardware RAID sein.
4+5 im Prinzip richtig, für Privatanwender und kleinere Unternehmen aber durchaus eine Herausforderung. Für große unter Umständen auch, die haben aber normalerweise Mitarbeiter, die sich darüber den Kopf zerbrechen dürfen.
Ein Datenspeicher muss nicht mal im Zugriff sein, um Daten zu verlieren. Hersteller von SSDs garantieren teilweise nur 3 Wochen Datenintegrität, wenn eine SSD ohne Strom gelagert wird. Auch bei Festplatten, Tapes und optischen Datenträgern kippen mit der Zeit Bits. Mehrfache Kopien und von Zeit zu Zeit prüfen und umkopieren schadet also nicht.
Gruß
Klaus
Guten Morgen - was ist denn hier schon wieder los :D
nein, aber im ernst - ich lass mich gerne eines besseren belehren.
Wir müssen aber schon sachlich bleiben. D.h. Argumente wie aus dem vorangegangenen Thread wie bspw. Diebstahl (wogegen man auch Dinge tun kann und sollte) oder Feuer lasse ich aufgrund der Wahrscheinlichkeit nicht gelten. Mit solchen Eventualitäten zu argumentieren kommt einem Circus gleich.
Weiterhin schließe ich aus, das ich aus Versehen irgendwelche wichtigen Daten lösche. Software hat das auch noch nie bei mir zustande gebracht (gibt es dafür konkrete Beispiele, wie das aussehen könnte?).
Was ich am ehesten nachvollziehen kann, ist der Umstand des defekten Controllers - da hilft tatsächlich nur eine doppelte NAS-Lösung, wie bei HaPeKa - was natürlich wieder ins Geld geht, aber wie im anderen Thread von mir bereits angemerkt: man gibt so viel Geld für seine Ausrüstung und Reisen aus, nur um daran zu sparen, das Erbrachte ausreichend zu sichern.
Fakt ist jedoch in jedem Fall: man kann auch das gesicherte immer weiter absichern, bis man grün und blau wird.
Ich denke, die meisten haben ihre Daten nur einfach gespeichert. Und selbst die, die ein Backup auf einer Externen (bspw.) vornehmen, tun dies evtl. auch nicht regelmäßig (zumindest ging es mir oft so, als ich das so gehandhabt habe - man vergisst es doch des öfteren mal). Optimale Lösungen sind das m.E. daher auch nicht.
Der NAS (im Raid 1) synchronisiert halt sofort, was passiert. Geht eine Platte kaputt, tausche ich sie gegen eine neue aus.
Aufgrund der Controller-Problematik (ich werde mich da noch etwas einlesen), erwäge ich auch die Anschaffung eines zweiten NAS - und dann ist auch soweit gut, denke ich - oder?
Einen Raid1-System im NAS allerdings als "gar keine Sicherung" zu verunglimpfen halte ich für etwas reisserisch und übertrieben.
Ein RAID 1 ist keine Sicherung und das hat mit Verunglimpfung nichts zu tun. Das RAID gewährleistet nur, dass Du auf die Daten zugreifen kannst - mehr nicht. Spätestens wenn Schrott geschrieben wird oder der Verschlüsselungstrojaner losgelaufen ist wirst Du den Unterschied erkennen. Beides seltene Fälle, aber wie oft fällt schon eine Platte aus? Es gäbe da auch noch Szenarien wie Inkonsistenzen, versehentliches Löschen, ...
Ein 2. NAS zur Sicherung ist schon mal besser als gar nichts.
Gruß
Klaus
Das halte ich nun auch für unwahrscheinlich, aber gut - mal angenommen.
Wie sichere ich meine Daten regelmäßig (am besten von allein) und ohne Risiko?
Was wäre euer Plan?
Moin, moin,
Wenn Schrott wichtige Daten überschreibt wird hilft auch das RAID nichts. Da braucht es dann das Backup.
das Backup hilft Dir aber nur, wenn die Daten auch mal ins Backup gelaufen sind. Selbst bei einem täglichen Backup hast Du ein fast 24stündiges Fenster, in dem Daten erzeugt werden können, und für die es kein Backup und keinen doppelten Boden gibt.
Fehlerhafte Software oder Schadsoftware kann natürlich auch frische Daten treffen, so dass hier auch das RAID keinen Vorteil bringt. RAID-Level größer 1 sichern Daten, auch wenn sie noch nicht im Backup gelandet sind, gegen gewisse Hardware-Ausfälle.
...und Software RAID kann heutezutage auch deutlich schneller als Hardware RAID sein.
Naja, wenn man windschief vergleicht, vielleicht.
4+5 im Prinzip richtig, für Privatanwender und kleinere Unternehmen aber durchaus eine Herausforderung. Für große unter Umständen auch, die haben aber normalerweise Mitarbeiter, die sich darüber den Kopf zerbrechen dürfen.
Wer sich blindlinks darauf verlässt, dass er ein Backup hat, kann übel überrascht werden, wenn er es denn braucht. Backup-Lösungen, die die Daten in Containern ablegen, sind von der Backup-Software und ihren Anforderungen an Betriebssystem und Hardware abhängig.
Ein Datenspeicher muss nicht mal im Zugriff sein, um Daten zu verlieren. Hersteller von SSDs garantieren teilweise nur 3 Wochen Datenintegrität, wenn eine SSD ohne Strom gelagert wird. Auch bei Festplatten, Tapes und optischen Datenträgern kippen mit der Zeit Bits. Mehrfache Kopien und von Zeit zu Zeit prüfen und umkopieren schadet also nicht.
Optische Datenträger gelten doch schon viele, viele Jahre als nicht adäquate Datenträger für Sicherungen. Tapes sind angesichts der heutigen Datenmengen in den meisten Fällen zu langsam und haben zu geringe Kapazitäten. SSDs wiederum sind zu klein und zu teuer.
Dat Ei
Fakt ist, dass ein 2-Plattenraid die Wahrscheinlichkeit von einem Datenverlust durch Festplattenausfall betroffen zu sein mindestens halbiert wird und das ist definitiv ein Beitrag zur Datensicherheit.
Fakt ist, dass ein 2-Plattenraid die Wahrscheinlichkeit von einem Datenverlust durch Festplattenausfall betroffen zu sein mindestens halbiert wird und das ist definitiv ein Beitrag zur Datensicherheit.
Als RAID 1 ja, als RAID 0 definitiv nicht.
Dat Ei
Als RAID 1 ja, als RAID 0 definitiv nicht.
Dat Ei
Klar...
Wie sichere ich meine Daten regelmäßig (am besten von allein) und ohne Risiko?
Was wäre euer Plan?
Wie bereits geschrieben: Ich mache das mit zwei NAS, das funktioniert einwandfrei.
Habe mich für die NAS von Synology entschieden und dort gibt's die Hyper Backup App (https://www.synology.com/de-de/dsm/feature/hyper_backup), mit der man einiges einstellen kann. So kann ich bei mir bis zu 12 Monate zurück Files wiederherstellen, ähnlich wie bei der Time Machine von Apple ...
Auf der Oberfläche sieht das dann wie folgt aus:
6/HyperBackup.jpg
→ Bild in der Galerie (http:../galerie/details.php?image_id=289478)
[...]
Ich nutze ebenfalls einen Synology und weiß darum bescheid :top:
Wenn man allerdings auf folgendes eingeht:
Spätestens wenn Schrott geschrieben wird oder der Verschlüsselungstrojaner losgelaufen ist wirst Du den Unterschied erkennen.
..wäre das doch auch der Tod für den zweiten NAS, oder habe ich einen Denkfehler? Also - wenn man mir sagt das dies und jenes nicht geht, hätte ich gern Alternativen angeboten - was ist da die Lösung? :D
Hallo,
da jeder sich individuell organisiert, ist eben die Datensicherung auch so individuell zu handhaben.
Ich z.B. ordne alle Bilder chronologisch, also sind z.B. alle Bilder meines Australienurlaubs im November und Dezember 2017 in einem Ordner Bilder-2017-1112-Australien, es gibt jeweils Unterordner wie RAW, JPG, Videos und spezielle Ordner wie Best-Of. Der Ordner heißt auf allen Medien gleich.
Mein Vorgehen:
Unterwegs (z.B. im Urlaub): Genügend SD-Karten dabei und abends alles auf den kleinen 11" NB gesichert
Daheim: Alles vom NB auf die Festplatte an der Fritzbox und auf einen USB Stick und den Desktop zum bearbeiten. Dann auf den SD-Karten und dem Reise-NB löschen.
Nach dem Bearbeiten alles auf der Festplatte an der Fritzbox überschreiben
Somit sind die Bilder bis auf die aktuellen Bilder des Tages immer mindestens doppelt vorhanden.
Auf dem Desktop lasse ich in der Regel die letzen 3 Jahre drauf, wenn ich vom Desktop was lösche mache eine Sicherung der Daten auf extra Datensicherungsplatten, so habe ich dann Festplatten z.B. für die Fotos von 2001 bis 2007, 2008 bis 2011 usw. Davon habe ich jeweils 2, eine zuhause und eine im Büro.
Hans
Also 'Schrott schreiben' oder auch 'fälschlicherweise löschen' kann einem schon passieren. Ich betrachte mich persönlich als den grössten Feind meiner Daten und diese Erkenntnis basiert auf jahrelangen Erfahrungen :(
Daher die Sicherungsrotation, z.B. täglich einen Monat zurück, wöchentlich ein Jahr zurück und monatlich ein paar Jahre zurück. Das benötigt weniger Speicherplatz, als man denkt.
Und der Verschlüsselungstrojaner kann nur Laufwerke verschlüsseln, die am PC sichtbar sind. Es kann also ein NAS Laufwerk verschlüsselt werden, aber das betrifft dann nicht den Backup dises Laufwerks, auf das hat der Trojaner keinen Zugriff, da dieser von NAS zu NAS erfolgt.
Wer Raid 0 nutzt, ist sehr mutig!
das Backup hilft Dir aber nur, wenn die Daten auch mal ins Backup gelaufen sind. Selbst bei einem täglichen Backup hast Du ein fast 24stündiges Fenster, in dem Daten erzeugt werden können, und für die es kein Backup und keinen doppelten Boden gibt.
Noch schlimmer, bei täglichem Backup verlierst Du bis zu 48 Stunden - die ersten 24h, weil Backup nicht lief und dann während der 2. 24h repariert werden muss.
Fehlerhafte Software oder Schadsoftware kann natürlich auch frische Daten treffen, so dass hier auch das RAID keinen Vorteil bringt. RAID-Level größer 1 sichern Daten, auch wenn sie noch nicht im Backup gelandet sind, gegen gewisse Hardware-Ausfälle.
Prinzipiell ja, nur wer sagt Dir, dass die Daten weg sind, wenn die Festplatte ausfällt? In der Regel sind die noch da nur Du kommst nicht mehr ran. Andernfalls würde es nicht Dienstleister geben, die sich genau darauf spezialisiert haben und Daten von ausgefallenen Datenträgern wiederherstellen. Wenn die Daten "weg" wären könnten die das nicht.
Wer sich blindlinks darauf verlässt, dass er ein Backup hat, kann übel überrascht werden, wenn er es denn braucht. Backup-Lösungen, die die Daten in Containern ablegen, sind von der Backup-Software und ihren Anforderungen an Betriebssystem und Hardware abhängig.
100% Zustimmung. Ohne regelmäßige Überprüfungen des Backups kann es böses Erwachen geben.
Optische Datenträger gelten doch schon viele, viele Jahre als nicht adäquate Datenträger für Sicherungen. Tapes sind angesichts der heutigen Datenmengen in den meisten Fällen zu langsam und haben zu geringe Kapazitäten. SSDs wiederum sind zu klein und zu teuer.
Alles relative Aussagen. Nicht jeder hat TB-große Datenmengen. DVD-RAM war durchaus für 10 Jahre und mehr spezifiziert. Das ist besser als Festplatten und insbesondere SSDs heute liefern können. Und wie bereits geschrieben, SSDs sind für Offline Backup denkbar ungeeignet - unabhängig vom Preis.
Wer Raid 0 nutzt, ist sehr mutig!
Ich bin sehr mutig :) Für mein Backup-NAS reicht das. Wenn das ausfällt habe ich noch Offline Kopien, von daher nutze ich lieber den Platz der beiden Platten. Auch für temporäre Daten, die jederzeit neu erstellt werden können, würde es ohne weiteres reichen.
Gruß
Klaus
Klaus - aber was wäre denn jetzt deine optimale und sichere Lösung?
Ich finde einen Raid1 per sé nicht schlecht aber bis auf Gründe dagegen, hast auch du noch keine richtige Alternative ausformuliert. Lass uns dann doch daran teilhaben, wie es richtig geht :-)
Zweiter Nas im Raid1 und ich wär vor Verschlüsselungs-Trojanern geschützt, wenn ich das richtig verstanden habe. Aber was ist mit denn nun mit Schrott oder fälschlicher Löschung?
Moin, moin,
Noch schlimmer, bei täglichem Backup verlierst Du bis zu 48 Stunden - die ersten 24h, weil Backup nicht lief und dann während der 2. 24h repariert werden muss.
die Logik verstehe ich jetzt ganz. Das, was Du schreibst, ist doch nicht zwingend so, sondern nur konstruiert. Ich kann auch Konstellationen konstruieren, in denen weitere Tage hinzukommen, weil z.B. ein betriebsfreies Wochenende zwischen dem Fehler und dem Erkennen des Fehlers liegt.
Prinzipiell ja, nur wer sagt Dir, dass die Daten weg sind, wenn die Festplatte ausfällt?
Die These habe ich nie aufgestellt. Ich habe nur geschrieben, dass RAID 1 in einem gewissen Maße zur Datensicherheit beitragen kann, aber auch, dass das seine sehr engen Grenzen hat. Bei Schadsoftware hast Du ein Problem, dass die komplette Bandbreite abdecken kann - von reparabel bis Totalverlust.
Andernfalls würde es nicht Dienstleister geben, die sich genau darauf spezialisiert haben und Daten von ausgefallenen Datenträgern wiederherstellen. Wenn die Daten "weg" wären könnten die das nicht.
Auch diese Ansätze haben deutliche Grenzen. Die höchste Hürde ist in der Regel der monetäre Widerstand, insbesondere, wenn es Platten aus RAID-Verbünden trifft.
Alles relative Aussagen. Nicht jeder hat TB-große Datenmengen. DVD-RAM war durchaus für 10 Jahre und mehr spezifiziert. Das ist besser als Festplatten und insbesondere SSDs heute liefern können.
Die optischen Medien haben sehr früh bewiesen, dass sie sehr, sehr empfindlich sind und die Spezifikation eher theoretischer Natur war. Die Verwendung von Festplatten schätzt Du dazu im Vgl. etwas falsch ein. Ihr Einsatz im großen Stile ist sehr verbreitet. Die letzten Tape basierenden Laufwerke habe ich bereits vor knapp 10 Jahren rausgeworfen. Es geht alles nur noch auf Platte.
Dat Ei
Zweiter Nas im Raid1 und ich wär vor Verschlüsselungs-Trojanern geschützt, wenn ich das richtig verstanden habe. Aber was ist mit denn nun mit Schrott oder fälschlicher Löschung?
Das ist so, der Verschlüsselungstrojaner hat keinen Zugriff auf den Backup auf der zweiten NAS, sofern diese nicht als Laufwerk am PC hängt und der Backup von NAS zu NAS gemacht wurde. Gegen versehenliches Löschen hilft die Sicherungsrotation.
Auf meinen beiden NAS nutze ich kein RAID, da ich die Daten aus meiner Sicht genügend gesichert habe. Die privaten Daten sind auf Disk 1 auf der heimischen NAS und als Backup auf Disk 2 der NAS im Geschäft. Mit den geschäftlichen Daten ist es vice versa, die liegen auf Disk 1 im Geschäft und als Backup auf Disk 2 zu Hause.
Die Photos werden etwas speziell behandelt, da Lightroom die aktiven Bilder auf einer lokalen Disk und nicht auf einer NAS haben will. Da habe ich beim Import die Option "Zweite Kopie an folgenden Ort anlegen" aktiviert und importiere die Bilder von der SDcard auf die lokale SSD und als Kopie auf die NAS. Der Backup der Bearbeitung erfolgt dann über die Sicherung der Lightroom Bibliothek, die einmal wöchentlich ausgeführt wird.
Well, über Backup könnte man Bücher schreiben. Wichtig scheint mir, dass man weiss, was man tut und was einem wichtig ist :D
Saitenschuft
31.01.2018, 15:53
Ich sag immer, das beste Backup ist das, welches man nicht braucht :lol:
Bei mir eine HD im Notebook wo nur die SSD gesichert wird. Ein NAS wo die wichtigsten Daten drauf sind und eine USB Festplatte auf die das NAS automatisch sichert.
Ich fühl mich gut:top::crazy:
@Dat Ei - Ich denke, wir haben unsere Argumente getauscht. Wenn wir jetzt weitermachen würden dann nur noch um das letzte Wort zu haben. Von daher :beer::beer:
@Bodo90: Backup für Privatdaten oder Firmendaten?
@Bodo90: Backup für Privatdaten oder Firmendaten?
Privatdaten (Bilder), die aber durchaus auch von finanzieller Bedeutung sein können.
Ich habe noch eine externe 2TB Platte - die könnte ich an die Fritzbox anschließen und dann ..vom NAS drauf backupen? Bin gerad überfordert mit den Möglichkeiten :D
Minimal: Externe Platte regelmäßig anschließen und Backup durchführen.
Besser: Das ganze mit 2-3 Platten machen und immer eine außerhalb lagern
Noch besser: In deinem Fall 2. Synology NAS und regelmäßig vom 1. NAS Daten automatisch drauf sichern lassen. Versionierung einschalten. Zusätzlich regelmäßig je nach Bedarf das Spiel mit den externen Platten und Auslagerung.
Wenn das Backup automatisert werden kann dann machen. Alles andere ist zu unzuverlässig.
Ich persönlich mache die letzte Variante + mehrere Platten in meinem PC ohne RAID Schutz, auf denen wichtige Daten mehrfach liegen (Kopiert per Skript). Bei Blitzschlag helfen aber vermutlich nur noch die Offline-Kopien ... Ansonsten muss ich die Methode von Kurt anwenden :shock:
Gruß
Klaus
Ja, das mit dem 2. NAS werde ich wohl so machen + Platte an der Fritzbox.
Bzgl Blitzeinschlag lassen mich hoffentlich meine Brennenstuhl-Leisten nicht im Stich. Aber 100% sicher wäre ich mir da auch nicht.
Danke soweit!
Habe mich für die NAS von Synology entschieden und dort gibt's die Hyper Backup App (https://www.synology.com/de-de/dsm/feature/hyper_backup), mit der man einiges einstellen kann. So kann ich bei mir bis zu 12 Monate zurück Files wiederherstellen, ähnlich wie bei der Time Machine von Apple ...
Eine Frage als NASloser ;)
Geht das nur mit 2 NAS?
Gruß
Klaus
Optische Datenträger sind nicht ganz aus dem Rennen.
Ich nutze seit Jahren M-Disc, jetzt auch als Blue-R. mit 25GB je Scheibe.
Mal als Vergleich der Aufwand, der bei uns in der Firma getrieben wird:
Datenspeicherung im Server auf gespiegelten Platten und parallel dazu auf dem NAS
Tägliches inkrementelles Backup auf Bändern in 3 Generationen mit Verify, Kommen in den Tresor.
Wöchentliches Vollbackup auf Bändern doppelt. Ein mal im Tresor und einmal beim Chef zu Hause.
Alles was am Rechner hängt, ist vor Verschlüsselungstrojanern nicht sicher!
Wir haben die Backups schon gebraucht.......
Privat hab ich die Daten auf dem Rechner und 2 externe Festplatten Eine bei mir, eine auf Arbeit.
Speicherkarten werden erst gelöscht, wenn die Daten auf mind. 2 verschiedenen Laufwerken liegen.
Mir sind schon 3 Festplatten ohne Vorankündigung abgeraucht.
Keine Ahnung, was eine professionelle Datenrettung heute kostet. Vor ein paar Jahren fingen die Preise bei rund 2000 € an und ich fürchte, die Preise sind sicher nicht günstiger geworden.
Was man bei Raid- Verbünden mit beachten sollte, gerade bei Raid 4 oder 5: Wenn die Platten aus einer Charge stammen, fallen die nicht selten in engen Zeitabständen aus, zumal sie in einem Nas unter gleichen Umweltbedingungen laufen (Temperatur, Vibrationen). Wenn die erste Platte krepiert, schnellstmöglich auch die anderen tauschen!
[...]Privat hab ich die Daten auf dem Rechner und 2 externe Festplatten Eine bei mir, eine auf Arbeit.
Speicherkarten werden erst gelöscht, wenn die Daten auf mind. 2 verschiedenen Laufwerken liegen.
Mir sind schon 3 Festplatten ohne Vorankündigung abgeraucht.[...]
Mir sind erst 2 Fesplatten "abgeraucht", und mittlerweile lösche ich Speicherkarten meist gar nicht mehr (mindestens zwei bis drei Jahre dauert es bei mir, bis eine voll ist).
Ansonsten mache ich es exakt genauso. Die externen Festplatten sind bei mir immer unterschiedliche Modelle und werden jeweils nach ein paar Jahren gegen neuere ausgetauscht. Das getrennte Lagern der Sicherungen finde ich besonders wichtig, auch wenn ich es noch nicht benötigt habe.
Moin, moin,
Mal als Vergleich der Aufwand, der bei uns in der Firma getrieben wird:...
der Aufwand ist noch recht überschaubar. Anscheinend kommt Ihr mit Bändern noch hin. Habt Ihr mal den zeitlich Aufwand abgeschätzt, wenn Ihr Plattensysteme mit Hilfe der Bänder wiederherstellen müsst?
Alles was am Rechner hängt, ist vor Verschlüsselungstrojanern nicht sicher!
So pauschal stimmt das auch nicht.
Dat Ei
Guten Abend,
Hui, hier ging's rund - aber immer schön sachlich! :) :top: :umarm:
(....)
Weiterhin schließe ich aus, das ich aus Versehen irgendwelche wichtigen Daten lösche. Software hat das auch noch nie bei mir zustande gebracht (gibt es dafür konkrete Beispiele, wie das aussehen könnte?).
(...)
Beantworte einfach folgende Fragen: Menschen sind unfehlbar? Software ist fehlerfrei?
Mir ist es schon passiert, daß ich mich im Terminalfenster geirrt habe. Schwupps war das Verzeichnis in der Produktionsumgebung weg, statt der Testumgebung. Seitdem haben meine Konsolenfenster schöne Farben bekommen. Ich konnte das gelöschte Verzeichnis ohne Ticket beim Provider vom zweiten Server kopieren, denn der Sync-Job (Server1->Server2) lief nur aller 15 Minuten. 600 Anwender weltweit hatten davon nichts mitbekommen. Noch gemeiner sind Datenbanken: einmal im "falschen" Fenster eine Tabelle ge"dropped" und man spürt sein Herz sehr deutlich schlagen - nur weil man dachte, es war die Testumgebung gewesen.:lol: Das zum praktischen Umgang mit dem gemeinen "human error". Und wie oft hat es Leuten ihre Word-Promotion beim Speichern zerschossen? Oder das Netzlaufwerk war nur kurz weg und dein Programm schreibt nach der Neuverbindung Datenmüll zurück. Beim nächsten Öffnen "File can't be read". :shock: Dateisysteme wie FAT32 sind für Inkonsistenzen höchst anfällig. Ich bin beruflich im Application Management bei einem großen Konzern unterwegs - da bekommt man unfreiwillig eine große Bandbreite an solchen Störungen ("Incidents") mit, die man privat nie hat oder für möglich halten würde.
Wenn es auf höchste Verfügbarkeit von Daten und aktuellste Versionen ankommt nimmt man beispielsweise ein transaktionales Dateisystem (auch Journaling File System bezeichnet, z.B. ZFS oder Btrfs), wo man die letzte(n) Versione(n) wiederherstellen kann. Sowas fordert aber viel an Ressourcen und ist somit nicht günstig für Normalnutzer, wenn es gleichzeitig auch performant sein soll. ;)
Der NAS (im Raid 1) synchronisiert halt sofort, was passiert. Geht eine Platte kaputt, tausche ich sie gegen eine neue aus.
Aufgepasst, weil es schon Einige dabei kalt erwischt hat: mitten im RAID-Rebuild (dauert bei x TB auch gern ein paar Stunden) steigt dir die einzig verbliebene gesunde Platte aufgrund der nun höheren Belastung plötzlich auch noch aus. Ist für Festplatten am Ende ihrer Lebenszeit nicht untypisch. :cool:
Einen Raid1-System im NAS allerdings als "gar keine Sicherung" zu verunglimpfen halte ich für etwas reisserisch und übertrieben.
Glaub's oder auch nicht: RAID hilft dir, beim Ausfall einer Disk unterbrechungsfrei weiterarbeiten zu können. Das kann für kleine Arbeitsgruppen essentiell sein. Auch laufen Anwendungen nicht Amok, wenn das Netzlaufwerk weg ist. Spätestens nach einem "versehentlichen"
rm -rf / (*nix)
del /y *.* (Windows)
ist dein RAID1 ganz plötzlich wieder jungfräulich - so schnell kannst du gar nicht ESC oder CTRL-C drücken. Im Normalfall genügt aber auch schon fehlerhafte Software. :P
Beste Grüße und immer schön rollierende, inkrementelle Backups erstellen, meshua
conradvassmann
31.01.2018, 21:53
Ich mache mein Backup auf ein RAID-System. Ist das jetzt auch kein Backup?
Nein!
Hier herrscht ein weit verbreiteter Irrglaube und beschreibt eher den Zustand einer Redundanz.
Was mache ich z.B. bei einem defekten RAID-Controller mit oder ohne Cache, der während des Schreibens abgekackt ist und danach mein ganzes System nicht mehr startet.
Ein Backup ist eine unveränderliche Sicherung eines IST-Zustandes zum Zeitpunkt XYZ auf einem geeigneten Medium.
Dieses Backup sollte möglichst lokal getrennt aufbewahrt werden, um Einflüsse durch Überspannung, Brand, Wasser etc. oder Diebstahl zu verringern.
WIKI:
RAID ist ein Akronym für englisch „Redundant Array of Independent Disks“, also „Redundante Anordnung unabhängiger Festplatten“ (ursprünglich engl. „Redundant Array of Inexpensive Disks“; deutsch „Redundante Anordnung kostengünstiger Festplatten“; was aus Marketinggründen aufgegeben wurde).
Moin, moin,
Ich konnte das gelöschte Verzeichnis ohne Ticket beim Provider vom zweiten Server kopieren, denn der Sync-Job (Server1->Server2) lief nur aller 15 Minuten.
das ist in einem Bereich, in dem eine hohe Verfügbarkeit gefordert wird, schon mal gut. Wenn man die Kosten nicht scheut und/oder die Anforderungen sind hoch genug, dann realisiert man Systeme, die vollkommen redundant aufgebaut sind, von den Fileservern über die Netzwerkkomponenten bis hin zu den RAID-Systemen, die in Echtzeit die Daten am Standort redundant halten und zeitnah nochmal über's Netz zu anderen Standorten spiegeln. Bei den Szenarien wird's aber richtig häßlich teuer.
Nochmal zu den optischen Datenträgern, die vorhin nochmal erwähnt wurden: aktuell sind mir nur 100 GB Blu-Ray-Medien bekannt. Wie viele BR-Rs und wie viel Zeit benötige ich, um heute eine handelsübliche HDD zu sichern? Wie hoch sind die Kosten?
Dat Ei
So pauschal stimmt das auch nicht.
Kannst du das bitte einem Unwissenden erklären?
Gruß
Klaus
Hey Klaus,
Kannst du das bitte einem Unwissenden erklären?
der Verschlüsselungstrojaner muss schreibenden Zugriff haben, um verschlüsseln zu können. Hat er den nicht, kommt er nicht weit.
Mal einfach dargestellt: es macht einen Unterschied, ob z.B. auf dem Client-Rechner eine Backup-Software läuft und ins Netz sichert, oder ob die Backup-Software auf einer Maschine im Netz läuft und lesenden Zugriff auf den Client-Rechner hat.
Es gibt weitere Grenzen, die so einen Trojaner hindern, alles zu verschlüsseln, nur weil alles mit allem vernetzt ist.
Dat Ei
Bei den Szenarien wird's aber richtig häßlich teuer.
Wobei der eigentliche Kostentreiber im Absichern der gesamten Kette (Server to Client) besteht. Wir betreiben 2 Webserver (Gateways) und dahinter 4 Applikationsserver (hauptsächlich wegen Loadbalancing, weniger wegen der Verfügbarkeit). Aber was nützt dir perfekte Redundanz, wenn plötzlich das Konzern-LDAP ausgestiegen ist und weltweit Anwender sich nicht mehr anmelden können. Natürlich gab's eine zweite LDAP-Umgebung (sogar "Hot-Standby"). Glück gehabt? Nicht wirklich: deren DB war nicht aktuell und so konnten sich nur knapp die Hälfte aller Anwender anmelden - die andere Hälfte war "unbekannt"! :shock: Zum Glück gab's noch eine alte, lokale Benutzerverwaltung als "Hintertür". Via Script: Nutzer entsperrt, Zufallspasswörter gesetzt, Mail an Nutzer mit Hintertür-Link und individuellen Passwörtern zugemailt (Intranet) - und es konnte weiter gearbeitet werden. Viel wichtiger, als -zig Backup zuhaben, ist eben ein effektives Backup-Konzept! :P
Nochmal zu den optischen Datenträgern, die vorhin nochmal erwähnt wurden: aktuell sind mir nur 100 GB Blu-Ray-Medien bekannt. Wie viele BR-Rs und wie viel Zeit benötige ich, um heute eine handelsübliche HDD zu sichern? Wie hoch sind die Kosten?
Privat nutze ich seit ungefähr 10 Jahren ausschließlich Festplatten für Backup und Archivierung. Da spielt man nicht mehr den DJ, sondern lässt alles von Skripts zuverlässig erledigen. Und so existieren vom NAS als zentrales Datengrab immer zwei weitere Offline/Offsite-Kopien - das genügt meinem persönlichen Risiko-Level. Die Festplatten werden eher aufgrund Platzmangels als wegen Defekten ausgetauscht. Optische Disks würde ich mir nicht mehr antun: 4TB auf 100GB BR-Rs regelmäßig sichern - nein Danke! ;)
Grüße, meshua
Moin meshua,
ich glaube, wir sind da sehr nah beieinander. Jede Kette ist immer nur so stark wie das schwächste Glied. Wenn der LDAP-Server der Single Point of Failure ist, dann weiß man nach Murphy, wo der Blitz einschlägt. :lol:
Wir haben mit einer Serverfarm eine Redundanz auf Host-Ebene für die virtuellen Server aufgebaut, und daneben für Unternehmens kritische Filebereiche einen komplett redundanten Zweig aus Fileservern, SAN-Switchen und RAIDs. Der Kostentreiber ist da die Lizenz für die Software.
Privat nutze ich seit ungefähr 10 Jahren ausschließlich Festplatten für Backup und Archivierung.
Wir sind seit einigen Jahren tapeless, wie es so schön heißt. Die LTO-Bandrobotoren sind raus geflogen.
Dat Ei
Moin meshua,
ich glaube, wir sind da sehr nah beieinander. Jede Kette ist immer nur so stark wie das schwächste Glied. Wenn der LDAP-Server der Single Point of Failure ist, dann weiß man nach Murphy, wo der Blitz einschlägt. :lol:
Wir haben mit einer Serverfarm eine Redundanz auf Host-Ebene für die virtuellen Server aufgebaut, und daneben für Unternehmens kritische Filebereiche einen komplett redundanten Zweig aus Fileservern, SAN-Switchen und RAIDs. Der Kostentreiber ist da die Lizenz für die Software.
Wir sind seit einigen Jahren tapeless, wie es so schön heißt. Die LTO-Bandrobotoren sind raus geflogen.
Dat Ei
Hallo,
darf ich fragen als was du arbeitest?
vg
Moin, moin,
darf ich fragen als was du arbeitest?
ich bin u.a. für die IT bei einem kleinen Unternehmen verantwortlich.
Dat Ei
Moin, moin,
ich bin u.a. für die IT bei einem kleinen Unternehmen verantwortlich.
Dat Ei
Wieviel Mitarbeiter habt ihr da und wieviel Daten müssen täglich gesichert werden?
Wieviel Mitarbeiter habt ihr da und wieviel Daten müssen täglich gesichert werden?
Gehören solche Details in diesen Thread und was hat es mit dem Thema zu tun?
Eine Frage als NASloser ;)
Geht das nur mit 2 NAS?
Das geht grundsätzlich auch mit einer NAS, das Backup Ziel der NAS muss keine zweite NAS sein. Das kann eine lokale Disk oder ein Cloudspeicher sein. Wichtig scheint mir, dass es wirklich automatisiert ist, alles andere ist unzuverlässig.
guenter_w
01.02.2018, 10:06
Wir sind seit einigen Jahren tapeless, wie es so schön heißt.
Huch - gibt es noch Privatpersonen und evtl. kleinere Firmen, die tatsächlich Bandsicherung machen, so mit Quic80 oder so? Die Dinger habe ich wegen Zeitaufwand und vor allem Inkompatiblitäten schon vor knapp 25 Jahren entsorgt...
Moin Günter,
QIC80 und Co. waren nie unser Thema. Anfang der 90 waren wir auf DAT unterwegs, dann auf IBM Tapes, bevor wir auf LTO gewechselt sind. Das waren dann bereits Kleiderschrank große Schränke mit über 200 Slots und 4 Laufwerken.
Jetzt liegt der ganze Kram auf dem Friedhof der Geschichte.
Dat Ei
Gehören solche Details in diesen Thread und was hat es mit dem Thema zu tun?
Was hat deine Frage aus Post 29 mit dem Thema zu tun?
Moin, moin,
um mal ein wenig weg von der Unternehmens- und hin zur SOHO-IT zu kommen, mal ein Tipp für die Windows-User. Während Acronis True Image Geld kostet und sich über die Jahre immer wieder böse Schnitzer erlaubt hat, gibt es von Veeam eine kostenfreie Alternative. Veeam ist als Hersteller von professionellen Backup-Lösungen im Windows- und VMware-Serverbereich und großen Installationen bekannt. Vor einiger Zeit haben sie einen kostenfreien, kleinen Ableger der Software veröffentlicht, der aktuell auf den Namen Veeam Agent for Microsoft Windows FREE (https://www.veeam.com/de/windows-endpoint-server-backup-free.html) hört. Es mag funktional nicht so mächtig wie True Image sein, aber dafür arbeitet es zuverlsässig.
Dat Ei
Tafelspitz
01.02.2018, 16:53
der aktuell auf den Namen Veeam Agent for Microsoft Windows FREE (Agent for Microsoft Windows FREE) hört. Es mag funktional nicht so mächtig wie True Image sein, aber dafür arbeitet es zuverlsässig.
Danke für den Tipp (der Link geht zwar nicht, aber Google funktioniert). Habe selber kein Windows, aber ich betreue ein System in der Verwandtschaft, für das ich das gut gebrauchen kann.
Danke für den Hinweis mit dem kaputten Link - der ist nun gefixt.
Die Backup-Software lässt sich z.B. so konfigurieren, dass sie automatisch startet, wenn eine externe USB-Festplatte angeschlossen wird.
Dat Ei
Tafelspitz
01.02.2018, 16:57
Sehr cool. Schnallt die Software auch, wenn man hier mit mehreren Platten arbeitet?
Sehr cool. Schnallt die Software auch, wenn man hier mit mehreren Platten arbeitet?
Habe ich noch nicht probiert, da ich persönlich ins NAS sichere.
Dat Ei
Minoltist
01.02.2018, 17:43
Anfang der 90 waren wir auf DAT unterwegs
Wir bzw. ich damals auch. :)
Nachdem mir aber in jüngster Vergangenheit zwei Flashspeicher kaputt gegangen sind und ich eine Backup-Festplatte nach nicht ganz zehn Jahren nicht mehr lesen konnte (Die ganzen schönen Nacktbilder der Ex beim Teufel...:cool::flop:) habe ich mich "besonnen" und wieder ein DAT (eigentlich DDS) Laufwerk eingebaut.
Meine Workstation hier hat wegen des Filmscanners ohnehin einen SCSI Adapter verbaut, so war das kein Problem. Habe alte DDS Bänder, vom Ende 90er Jahre, problemlos wieder auslesen können.
Bislang sind mir die 72GB Kapazität der Bänder ausreichend, parallel dazu sichere ich noch auf BluRay. Sollte es, was absehbar ist, zu Nachschubproblemen mit den 72GB Bändern kommen, werde ich auf LTO umsteigen.
Stimmt ja, die Bänder hießen für den EDV-Einsatz DDS und nicht DAT... Lang, lang ist's her. Schon irre, wenn man überlegt, dass man für die Sicherung heutiger 08/15-Festplatten gut 50 Bänder bräuchte...
Wie lange liest / schreibst Du an einem Band rum?
Dat Ei
(...) Während Acronis True Image Geld kostet und sich über die Jahre immer wieder böse Schnitzer erlaubt hat, gibt es von Veeam eine kostenfreie Alternative.
Leider verwendet diese Veeam-Version keine Kompression, Acronis hingegen schon. :roll:
Grüße, meshua
Moin meshua,
Leider verwendet diese Veeam-Version keine Kompression, Acronis hingegen schon. :roll:
bist Du sicher?
Siehe in diesem Dokument auf Seite 3, oben:
Clickclack! (https://www.veeam.com/de/veeam_agent_windows_2_1_editions_comparison_ds.pdf )
Dat Ei
bist Du sicher?
Oha, Kompression und Deduplizierung scheinen neu in der Free-Version zu sein. Dann wäre das wieder ein Pluspunkt. Bin mittlerweile aber von Windows weg (nur noch in VMs) - ansonsten wäre Veeam eine echte Alternative gewesen. :top:
Grüße, meshua
Wenn es um die Sicherung von Firmen-Servern geht, sind das natürlich andere Dimensionen.
Nochmal zu den M-Dics.
Für ein komplett Backup nehm ich auch externe Platten.
Aber für mich wichtige Daten, z.B. meine Fotos, sichere ich zusätzlich auf die M-Disc.
Moin meshua,
Oha, Kompression und Deduplizierung scheinen neu in der Free-Version zu sein.
Kompression und Deduplizierung sollen laut Doku schon in der Version Veeam Endpoint Backup FREE 1.5 enthalten gewesen sein.
Dat Ei
Wenn wir schon bei Veeam sind, ist der Blog-Eintrag von denen sehr interessant:
3-2-1 Regel für Backup (https://www.veeam.com/blog/de/how-to-follow-the-3-2-1-backup-rule-with-veeam-backup-replication.html)
Ich selbst halte mich schon seit längeren an diese Regel, auch wenn es bei mir die erste und letzte Ziffer zum Teil deutlich höher ist.
Ich unterscheide bei meinen Backups nach Daten und nach dem Betriebssystem.
Für mich sind ganz klar meine Daten (Dokumente, Fotos, usw.) das Wichtigste.
Auf ein Backup des Betriebssystems habe ich sogar eine Zeit lang verzichtet, weil das letztlich nur relativ wenig Zeitaufwand für die Wiederherstellung/Neuinstallation für mich bedeutet, da ich meine installierten Programme konzentriert zur Hand habe für den Fall der Fälle.
Als Backup-Software verwende ich:
- Duplicati (https://www.duplicati.com/)(für Daten)
- FreeFileSync (https://www.freefilesync.org/)(für Daten)
- Veeam Agent Free (Betriebssystem)
Warum verwende ich so viele unterschiedliche Programme für meine Backups?
Ich fange mal mit Veeam an. Wie ich oben gesagt habe ist das Betriebssystem für mich nicht ganz so wichtig, dennoch habe ich mit dazu entschieden, mit Veeam mehr oder weniger regelmäßig ein Backup zu machen. Genauer gesagt ist es so konfiguriert, dass ein Backup startet, wenn ich eine USB-Platte anstecke. Dafür habe ich zwei zur Verfügung.
Das Betriebssystem ist auch eine Abweichung von der 3-2-1 Regel. Bei mir ist sie aktuell eine 2-2-0 Regel, weil für mich, ach ich wiederhole mich...
Duplicati kommt bei mir für die Sicherung meiner Daten (Dokumente, Fotos, usw.) auf externe Ziele (externer Server, Clouds) zum Einsatz. Das Gute ist, dass man im Fall der Fälle mit anderer Freeware auch an seine Daten kommen kann. Das würde hier aber zu weit führen.
Duplicati arbeitet so, dass es beim ersten Backup ein Vollbackup anlegt. Alle weiteren Backups lassen sich nicht so einfach in Differentiell und/oder Inkrementell einsortieren. Es wird immer die Änderung zum letzten Backup gesichert. Für eine Wiederherstellung stellt sich jedes Backup als aktuelles Backup des Tages dar.
Man muss also für das Recovery nicht erst das Vollbackup zurückspielen und dann die Inkrements/Differentials, sondern hat immer ein aktuelles Vollbackup zur Verfügung.
Man kann aber auch einzelne Dateien von einem bestimmten Tag zurückspielen.
Ich habe mir einige Backup-Jobs angelegt z.B. für Dokumente habe ich vier um auf zwei Clouds, einen externen Server und einen internen Linux-Rechner zus sichern.
Fotos habe ich unterteilt nach einzelnen Jahren und für jedes Ziel gibt es einen Backup-Job.
Das summiert sich zwar, macht aber das erste Vollbackup erträglich, aber auch die regelmäßigen Backups.
Zum Thema regelmäßig: Da mein Rechner 24 Stunden am Tag läuft, laufen auch die Backups jeden Tag.
Noch ein Wort zu den Backups auf Cloud und externe Server: Selbstverständlich sind die Backups verschlüsselt und Cloud/Server sind nicht als Laufwerke eingebunden, sondern erfolgt per geschützten und verschlüsselten Zugang.
FreeFileSync kommt bei mir ebenfalls für die Sicherung meiner Daten zum Einsatz. Als Ziele für die Sicherung verwende ich hier externe Festplatten.
FreeFileSync verwende ich für manuelle Backups meiner Daten (Bilder, Fotos, usw.) auf externe USB-Platten.
Hier wird nichts verschlüsselt, historisiert oder komprimiert. Die Backups sind 1:1 Abbilder des Originals und ich kann auch ohne eine Software von meinem Rechner oder einem anderen Rechner darauf zugreifen.
Die Backup-Frequenz richtet sich nach der Menge der Änderungen. D.h. wenn ich mit der Kamera unterwegs war und habe die Bilder auf den Rechner gespielt, wird ein Backup auf die externen Platten gemacht.
Letztlich weiß ich ja, was wo hinzugekommen ist, geändert wurde oder gelöscht. Bei jeder Kleinigkeit führe ich das nicht durch, aber regelmäßig schon. Außerdem greifen ja die nächtlichen Backups per Duplicati.
Ganz schön viel Aufwand!
DS218 ist gerade bestellt.
Damit wird es in Zukunft eine knappe 3-2-1 Lösung.
Daten auf RAID1 gespiegelt und dann auf die zweite alte NAS. 1 Platte wird dann gezogen und woanders gelagert. Wechsel so für alle 3-6 Monate geplant.
Fragen
1. Ich möcht die Backupplatte auch über externes Gehäuse direkt an Win anschließen können.
1a)Welche Formattierung (in Buffalo) wäre sinnvoll? RAID wäre nicht notwendig denke ich, ich kann die getauschte Platte jeweils immer neu anmelden und auch neu formattieren.
Mit RAID1 könnte ich sie vermutlich einfach reinstecken und sie würde erneut gespiegelt (habe ich aber noch nie gemacht)
1b) Da sie in der Firma im Schrank liegt wäre eine Verschlüsselung wohl sinnvoll. Welche Verschlüsselung könnte ich bei DS218/DSM6.2 für das Backup wählen, welches ich dann in Win auch wieder lesen kann?
2. Gibt es eine Lösung für Win den Desktop und den Dokumentebereich beim runterfahren jeweils mit der NAS zu synchronisieren/ kopieren?
Am liebsten mit einer Versionshistorie, die automatisch x-Versionen einer Datei behält.
zu 2. Richte die Cloud Station ein und synchronisiere damit die gewünschten Ordner. Dann wird nicht nur beim Runterfahren sondern ständig synchronisiert. Versionierung ist damit ebenfalls möglich.
Wird die Synch vom DSM aus verwaltet?
Resourcenbelastung?
Guggst Du hier: https://www.synology.com/de-de/dsm/feature/cloud_station_suite
Wenn Du die interne IP des NAS im Client angibst bleibt alles im Haus. Konfiguration findet grundsätzlich durch das DSM statt. Die zu synchronisierenden Ordner und Dateien am Server und auch am Client. Ressourcenbelastung wird immer von den Anzahl der Clients und der zu synchronisierenden Dateien abhängen.
Danke für den Link. Hatte ich mittlerweile gefunden. Aber selbst mit der tieferen Erklärung für mich nicht selbsterklärend.
https://www.synology.com/de-de/knowledgebase/DSM/help/CloudStation/cloudstation
Ressourcenbelastung wird immer von den Anzahl der Clients und der zu synchronisierenden Dateien abhängen.
Mir geht es um die Belastung des Win Clients. Ist nicht mer der Jüngste und Schnellste.
Ist bei mir jetzt nicht negativ aufgefallen. Das bißchen Dateiabgleich und Kopieren sollte also machbar sein.
Wenn die Frau ins Inet möchte und die Leitung ist verstopft, gibt es Mecker. :D
Ich synchronisiere nur, wenn ich daheim bin. Kannst Du ja auch machen. Die Cloud Station läuft auf dem NAS und muss nicht zwangsweise aus dem Internet erreichbar sein.
Ich synchronisiere nur, wenn ich daheim bin. Kannst Du ja auch machen. Die Cloud Station läuft auf dem NAS und muss nicht zwangsweise aus dem Internet erreichbar sein.
Das läuft aber doch alles über das gleiche wlan-kabel.
Ich werde es testen.
Spätestens wenn meine Kiddies grössere Arbeiten auf dem Computer erstellen müssen möchte ich ein Versionsbackup von Desktop und Dokumente haben.
Mal schauen, ob ich sie ohne DatenGAU durch Schule und Uni bekomme.
Dornwald46
10.02.2018, 19:24
FreeFileSync verwende ich für manuelle Backups meiner Daten (Bilder, Fotos, usw.) auf externe USB-Platten.
Ich habe mir soeben die Download Seite bei Heise angeschaut und da haben doch einige keine guten Erfahrungen mit FreeFileSync gemacht und vom PC wieder deinstalliert.
Wie sind Deine Erfahrungen damit?
Kann ich nicht nachvollziehen. Ja, während der Installation, wird irgendein Schrott zur Installation mit vorgeschlagen. Haken wegnehmen und gut ist.
Bei mir wurde weder bei Chrome, Firefox oder Edge was geändert. Auch der Virenscanner gibt grünes Licht.
Performance an USB3.0 ist gut.
Das Gute ist, dass man den externe Platten in dem Programm logische Namen geben kann. So arbeitet es unabhängig vom Laufwerksbuchstaben.
Ich habe bestimmt 40 Backupjobs definiert. In der neuesten Version zeigt das Programm auch wann ein Job das letzte mal lief.
Ich habe mir soeben die Download Seite bei Heise angeschaut und da haben doch einige keine guten Erfahrungen mit FreeFileSync gemacht und vom PC wieder deinstalliert.
Wie sind Deine Erfahrungen damit?
Ich nutze einfach Microsoft's Robocopy: Das synced seit Jahren zuverlässig vom NAS über Windows auf eine externe Festplatte (mit VeraCrypt-Container). ;-)
Grüße, meshua
(...)
1b) Da sie in der Firma im Schrank liegt wäre eine Verschlüsselung wohl sinnvoll. Welche Verschlüsselung könnte ich bei DS218/DSM6.2 für das Backup wählen, welches ich dann in Win auch wieder lesen kann?
Diese Nuss konnte ich auch noch nicht knacken. Wenn du Synology's "HyperBackup" verwendest, können die verschlüsselten Backupfiles mit Synology's Explorer (für Mac/Windows) eingelesen werden. Soll es eine 1:1 Offline-NAS-Kopie sein, wird es am ehesten mit "ecryptfs" funktionieren. Das ist aber auf externen Festplatten auch bei Synology ein Commandline-Gefrickel...
Leider unterstützt Synology kein Veracrypt, NTFS Security oder HFS+ Encryption. :-(
Grüße, meshua
Diese Nuss konnte ich auch noch nicht knacken. Wenn du Synology's "HyperBackup" verwendest, können die verschlüsselten Backupfiles mit Synology's Explorer (für Mac/Windows) eingelesen werden.
Klingt doch schon mal ganz gut.
Ich nutze einfach Microsoft's Robocopy: Das synced seit Jahren zuverlässig...
Meine volle Zustimmung! Da braucht es eigentlich nichts weiteres.
Dat Ei
Kurt Weinmeister
10.02.2018, 21:39
Ich nutze einfach Microsoft's Robocopy: Das synced seit Jahren zuverlässig ...
Alternativ für die Mac/Linux Fraktion äquivalent dazu ist RSYNC.
Auch unter Windows zu bekommen.
Auf dem Mac ist allerdings nicht die neueste Version installiert (zumindest unter El Capitan, bei High Sierra habe ich noch nicht nachgeschaut).
rsync, das auch auf einigen NAS unterstützt wird, nutzen wir zur Sicherung der Unix basierten Server.
Dat Ei
Minoltist
11.02.2018, 11:13
Stimmt ja, die Bänder hießen für den EDV-Einsatz DDS und nicht DAT... Lang, lang ist's her. Schon irre, wenn man überlegt, dass man für die Sicherung heutiger 08/15-Festplatten gut 50 Bänder bräuchte...
Ja - DDS war mit DDS5 bzw. DAT72 ausgereizt.
Die Technologie stammt ja eigentlich aus den 1980er Jahren und sollte die Musikcassette ersetzen. (Ich habe hier sogar noch so einen DAT-Recorder im Wohnzimmer stehen)
Gut - mit LTO Tapes könnte man weiter bei Bändern bleiben; LTO8 mit 22.500 GB bei 750 MB / Sec. sind schon nicht schlecht...:cool: Für den Privatmann bzw. für mich aber zu teuer.
Wie lange liest / schreibst Du an einem Band rum?
Beziehst Du Dich auf die Dauer eines Backupvorgangs oder darauf, ob mir die 72GB reichen? ;)
Ich hab das noch nicht gestoppt - ich lege jeden Sonntag ein Band ein und lasse die Kiste rödeln - denke aber so zwei, drei Stunden wird das dauern. (ca. 3MB/Sec)
Mein Bilderordner ist tatsächlich nur etwa 50-60 GB groß / klein. Ich produziere ja nicht so viele Bilder und die wenigen nicht in gewaltigen Auflösungen (Dynax 7D bzw. Scans vom Film, Dateien so um 7MB:lol:)
Parallel zu dem DDS Bandlaufwerk sichere ich noch auf BluRay (Bilder und Video), Dokumente etc. pp. kommen auf eine DVD-RAM.
Cloudspeicher nutze ich nur sehr selektiv - Familienbilder, Aktbilder und anderes kompromittierendes Material kommt keinesfalls auf einen Cloudserver.
Flickr ist ja im Prinzip auch ein Cloudserver - da habe ich ein paar Bilder liegen - One Drive nutze ich eigentlich nur für unsensibles Material wie irgendwelche Dokumente.
Gestern hat es sich übrigens der "Ernstfall" ergeben. Ich hatte immer eine externe 2TB Festplatte als schnellverfügbaren Datenspeicher genutzt - die hat es gestern gehimmelt. Genauer hat es den SATA Controller der da noch mit drin steckt zerlegt - den Laufwerksinhalt konnte ich leider nicht retten - Platte ausbauen und direkt in den Rechner stecken ging zwar an sich - das Dateisystem ist aber nicht lesbar; also war Neupartitionierung angesagt.
Meine langjährige Ansicht, daß Festplatten als Sicherungsmedium ungeeignet sind (sofern man nicht mehrgleisig fährt) hat sich mal wieder bestätigt. Ich habe das schon mehrfach erlebt, daß die Dinger von jetzt auf gleich gestorben sind oder nach langer Lagerzeit nicht mehr lesbar waren...
Hätte ich mich jetzt nur auf dieses "Western Digital MyBook Essential 2TB GTI 16V Turbo" Dingens verlassen (das im Übrigen zur Datensicherung beworben wird), wären alle Photos meiner Kinder der letzten Jahre jetzt beim Teufel.
(...)
Meine langjährige Ansicht, daß Festplatten als Sicherungsmedium ungeeignet sind (sofern man nicht mehrgleisig fährt) hat sich mal wieder bestätigt.
Für private Daten: Selbst 3 Festplatten sind vom Aufwand (Kosten & Zeit) noch geringer, als mit Tapes zu jonglieren. Auf optische Medien habe ich seit 10 Jahren nicht mehr - bei aktuell 4TB im NAS.
Rsync setze ich für *NIX-Betriebssysteme ein (also inkl. MacOS) - funktioniert ABER ist keine Rakete. Robocopy bleibt daher für Windows die erste Wahl, denn es ist bei mir deutlich flotter, als rsync. Wer natürlich gern alles mit einer einheitlichen Infrastruktur betreiben möchte, der nutzt rsync als Cross-Pattform Lösung. :top:
Grüße, meshua
uassmann
11.02.2018, 12:42
Tolle Diskussion, nur - es kann ganz einfach sein.
Datenspiegelung (im weitesten Sinne Raid 1) dient der schnellen Wiederherstellung bei Hardwarefehlern. Das wär z.B. wenn eine der beiden Platten kaputt geht. Es ist dann aber auch eine Herausforderung, die zweite Platte wieder lesen zu können. Gegen logische Fehler (z.B. SOftwarefehler) hilft das nicht, die werden gleich mit gespiegelt. Ich habe das einmal gemacht und nie wieder. Wenn das Subsystem (NAS im Kleinen oder ein Storagesubsystem im Großen) selbst kaputt ist, hat man noch Hoffnung, dass die Platten noch iO sind. Die zu lesen kann aber, weil sie in einem Raid waren, wieder eine Herausforderung sein.
Raid4 bzw. 5 und 6 helfen wieder beim Hardwarefehler. Eine kaputte Platte kann im laufenden Betrieb ausgestauscht werden. Das ist aber keine Sicherung! (Wie oft habe ich das mit Kunden diskutiert!) Wenn das Storage Subsystem bzw. das NAS selbst die Grätsche macht, kann man Pech haben. Wieder Konjunktiv.
Eine wirkliche Sicherung ist nur das doppelte oder dreifache Vorhalten von Daten auf getrennter Hardware. Welche durch regelmäßige Backups aktualisiert werden. Wie oft man das macht, hängt von der Charakteristik der Daten ab. Im Datenbankkauderwelsch heißt es da, dass Stammdaten sich selten ändern und somit weniger häufig gesichert werden müssen. Bewegungsdaten halt häufiger.
Für eine sinnvolle Sicherung braucht man also getrennte Hardware (auch eine USB Festlatte muss vom Rechner getrennt werden, um sicher zu sein) und regelmäßiges, automatisiertes Backup.
Ich selbst sichere per Script (robocopy) nach dem Neustart und vor dem Shutdown auf einem Server und einem NAS.
Ulli
Minoltist
11.02.2018, 17:54
Für private Daten: Selbst 3 Festplatten sind vom Aufwand (Kosten & Zeit) noch geringer, als mit Tapes zu jonglieren. Auf optische Medien habe ich seit 10 Jahren nicht mehr - bei aktuell 4TB im NAS.
Ich jongliere nicht - ich lege da ein (1!) Band rein und lasse laufen. ;) Komme ich irgendwann mal über die ~72GB Kapazität, dann tue ich halt ein zweites rein.
Was die Zeit angeht: Wenn das ein Kriterium ist (bei mir ist das egal) dann hast Du natürlich recht.Ein 4TB NAS in brauchbarer Qualität liegt aber bei ca 200-250 Euro... Die DDS Hardware + Tapes gab´s gegen eine Kiste Bier.:lol:
Wie gesagt: ICH habe keine so großen Datenmengen, daß ich 4TB brauchen würde, bei wem das der Fall ist, der nutze ein NAS etc.pp.
Robocopy bleibt daher für Windows die erste Wahl
Robocopy ist natürlich SEHR oldschool - gefällt mir :)
Eine wirkliche Sicherung ist nur das doppelte oder dreifache Vorhalten von Daten auf getrennter Hardware. Welche durch regelmäßige Backups aktualisiert werden.
Absolut richtig. Welche Hardware man da verwendet - kommt halt auf den Einzelfall an.
Eine kaputte Platte kann im laufenden Betrieb ausgestauscht werden. Das ist aber keine Sicherung! (Wie oft habe ich das mit Kunden diskutiert!)
Das kenne ich noch aus der grauen Vorzeit, als ich mich beruflich mit dieser Thematik zu befassen hatte. :lol:
Was bringt RAID0
Habe beim Bestellen der DS218 einen Fehler gemacht und anstatt 2x 2TB nur 2x 1TB bestellt. :cry:
Jetzt gibt es einige Lösungsansätze
- Umtauschen
- RAID1 mit 1TB Speicher. Das war der ursprüngliche Plan mit 2TB. 1TB reicht eigentlich auch sehr gut aus. Aktuell nutze ich 100GB für Daten und 200 für unterschiedliche Backup. Und für die Backups plane ich ja die aktuelle DatenNAS mit 2x 2TB. Sollte somit ja auch gehen
- Einfach 2x 1TB ohne RAID nutzen
- RAID 0, damit wären wieder 2TB vorhanden und zusätzlich mehr Speed. Aber bringt dieser Mehr Speed gegenüber dem höherem Ausfallrisiko überhaupt etwas?
Ich bin mir echt unschlüssig. Irgendwie finde ich RAID0 spannend, aber eigentlich wollte ich immer RAID1, weil ich faul bin und auf die simple Absicherung durch Spiegelung ohne Rückkopieren vom Backup.
Was bringt RAID0
Habe beim Bestellen der DS218 einen Fehler gemacht und anstatt 2x 2TB nur 2x 1TB bestellt.
Die Beschreibungen sind manchmal auch fies - muss man stets genau lesen. Ich wäre auch beinahe einmal darauf hineingefallen. Letztlich aber NAS ohne Festplatte gekauft und die HDDs separat erworben.
- RAID1 mit 1TB Speicher. Das war der ursprüngliche Plan mit 2TB. 1TB reicht eigentlich auch sehr gut aus. Aktuell nutze ich 100GB für Daten und 200 für unterschiedliche Backup. Und für die Backups plane ich ja die aktuelle DatenNAS mit 2x 2TB. Sollte somit ja auch gehen
So würde ich's machen, wenn 1TB genügt. Aufrüsten kannst du jederzeit - ein kaputtes RAID1 ist ein größeres Desaster... ;)
- Einfach 2x 1TB ohne RAID nutzen
Das wäre eine gute Option "B" - wie Backup: Eine Platte ganz normal im Netz freigeben. Auf die zweite Platte kannst du dann regelmäßig (stündlich, täglich) deine erste Platte sichern (z.B. mit zeitgeplanten Tasks).
- RAID 0, damit wären wieder 2TB vorhanden und zusätzlich mehr Speed. Aber bringt dieser Mehr Speed gegenüber dem höherem Ausfallrisiko überhaupt etwas?
Gar nix: Das Bottleneck ist der 1GbE Ethernetanschluß: da presse ich mit der DS218+ und AFP-Protokoll 109Mb/s lesend durch - das ist schon am Maximum.
Beste Grüße, meshua
Wenn die Bestellung online gelaufen ist, würde ich schlicht gemäß Fernabgabegesetz die Bestellung stornieren.
Dat Ei
[b]Jetzt gibt es einige Lösungsansätze
- Umtauschen
- RAID1 mit 1TB Speicher. Das war der ursprüngliche Plan mit 2TB. 1TB reicht eigentlich auch sehr gut aus. Aktuell nutze ich 100GB für Daten und 200 für unterschiedliche Backup. Und für die Backups plane ich ja die aktuelle DatenNAS mit 2x 2TB. Sollte somit ja auch gehen
- Einfach 2x 1TB ohne RAID nutzen
- RAID 0, damit wären wieder 2TB vorhanden und zusätzlich mehr Speed. Aber bringt dieser Mehr Speed gegenüber dem höherem Ausfallrisiko überhaupt etwas?
Es gibt noch mehr Lösungen ...
Warum nicht 2 x 2TB WD Reds kaufen, die beiden 1TB verkaufen?
2x2TB kosten ca. € 170, für die beiden 1TB bekommst du vielleicht gegen € 100 ...
Im Moment denke ich über einen neuen Backupplan nach: 3 Platten und zwei werden regelmässig gegeneinander getauscht. Keine zweite NAS.
Besser mit RAID 1 oder ohne RAID und Backupplan auf zweite Platte?
Was bringt RAID0
Habe beim Bestellen der DS218 einen Fehler gemacht und anstatt 2x 2TB nur 2x 1TB bestellt. :cry:
Kaufe 2x 2TB nach und nutze die 2x 1TB als Backupplatten mit einem guten USB 3.0 auf SATA Adapter.
Da brauchst du kein externes Gehäuse und kannst auch eine ins Büro oder woanders hin legen.
Gruß
Klaus
mit einem guten USB 3.0 auf SATA Adapter.
Hast du eine Empfehlung?
Gibt es ein System, welches bei dauerhafter Nutzung am NAS in den Standby geht und nur aktiv wird bei Benutzung.
Oder ist das sowieso egal, weil der Stromverbrauch nur bei schreiben und lesen entsteht.
Heute / 20:15 - 21:00 / 3sat
Wird es Forschern gelingen, neue Speicherformen zu finden?
Der Umfang digitaler Daten, die unsere moderne Gesellschaft generiert, explodiert förmlich. Wie können diese Daten überdauern? Welche Form von Gedächtnis gibt es für unser digitales Vermächtnis? ...
http://www.3sat.de/page/?source=/wissenschaftsdoku/sendungen/196483/index.html
Grüße, meshua
Hast du eine Empfehlung?
Ich habe den (https://www.amazon.de/dp/B016UBXH3O/ref=pe_3044161_189395811_TE_dp_1) und bin zufrieden.
Gruß
Klaus
Für private Daten: Selbst 3 Festplatten sind vom Aufwand (Kosten & Zeit) noch geringer, als mit Tapes zu jonglieren. Auf optische Medien habe ich seit 10 Jahren nicht mehr - bei aktuell 4TB im NAS.
Rsync setze ich für *NIX-Betriebssysteme ein (also inkl. MacOS) - funktioniert ABER ist keine Rakete. Robocopy bleibt daher für Windows die erste Wahl, denn es ist bei mir deutlich flotter, als rsync. Wer natürlich gern alles mit einer einheitlichen Infrastruktur betreiben möchte, der nutzt rsync als Cross-Pattform Lösung. :top:
Grüße, meshua
Hi
mal wieder eine Frage zum Thema Backup-Struktur.
Mein ds218 unterstützt ja serverseitiges rsync. Ich verstehe nur nicht so recht, wie mir das nützlich sein könnte.
Erwartungshaltung wäre, das die DS serverseitig die Sync-Aufgabe durchführt sobald die Quelle verfügbar ist.
Ist das so?
Wie wird das zwischen Win und DS konfiguriert?
Ist das performant oder geht der Rechner und Internetverbindung beim Login erst mal in die Knie, weil rsync alles blockiert?
Neonsquare
30.07.2018, 20:42
Nicht zu vergessen:
Was oft hier als Backup gesehen wird ist schlicht erstmal nur eine Spiegelung (Wie RAID 1). Bei einer solchen „Backup“-Methode hat man in bestimmten Gefahrensituationen bereits nach dem ersten Backupfenster einen Datenverlust.
Klassischerweise hat man ja Backupmedien (Bänder, optische Datenträger) einmal beschrieben und dann archiviert. Bei einem NAS auf das nur gespiegelt wird fällt dieser Archivierungsaspekt weg. Man kann dies auch per Software lösen indem man eine dedizierte Backup-Software verwendet. Unter macOS geht da sogar schon Time Machine - flexibler und besser ist aber QRecall.
Hi
mal wieder eine Frage zum Thema Backup-Struktur.
Mein ds218 unterstützt ja serverseitiges rsync. Ich verstehe nur nicht so recht, wie mir das nützlich sein könnte.
Erwartungshaltung wäre, das die DS serverseitig die Sync-Aufgabe durchführt sobald die Quelle verfügbar ist.
Ist das so?
Wie wird das zwischen Win und DS konfiguriert?
Ist das performant oder geht der Rechner und Internetverbindung beim Login erst mal in die Knie, weil rsync alles blockiert?
Die rSync-Version der DiskStation dient hauptsächlich zur Synchronisation zweier DiskStations ("Cluster").
Um den Inhalt des NAS zu sichern, läuft bei mir wöchentlich das Synology-eigene "Hyperbackup" und erstellt inkrementelle, verschlüsselte Backups auf eine via USB3 angeschlossene externe Festplatte - das Ganze rolierend.
Set & forget!:crazy:
rSync ist von Haus aus leider nicht multi-threading-fähig. Robocopy hingegen schon - und das merkt man schon bei 8 Threads und vielen kleinen Dateien deutlich! :top:
Grüße, meshua
steve.hatton
30.07.2018, 22:41
Die rSync-Version der DiskStation dient hauptsächlich zur Synchronisation zweier DiskStations ("Cluster").
Um den Inhalt des NAS zu sichern, läuft bei mir wöchentlich das Synology-eigene "Hyperbackup" und erstellt inkrementelle, verschlüsselte Backups auf eine via USB3 angeschlossene externe Festplatte - das Ganze rolierend.
Set & forget!:crazy:
rSync ist von Haus aus leider nicht multi-threading-fähig. Robocopy hingegen schon - und das merkt man schon bei 8 Threads und vielen kleinen Dateien deutlich! :top:
Grüße, meshua
Kann man den letzten Absatz auch in einsilbigen Worten für nicht IT-ler haben :cool:
tempus fugit
30.07.2018, 23:10
verschlüsselte Backups
Obacht!
Kann man den letzten Absatz auch in einsilbigen Worten für nicht IT-ler haben :cool:
Rsync kann von Haus aus nicht parallelisiert ausgeführt werden: es verarbeitet sequentiell Datei für Datei. Robocopy unterstützt hingegen die parallele Ausführung (Schalter "/MT[:n]"): dabei behandelt es n Dateien zur gleichen Zeit. Insbesondere bei kleinen Dateien mit ihrem Overhead an Verwaltung lässt sich hiermit der effektive Datendurchsatz erheblich steigern.
Obacht!
Synology unterstützt auch seit langem eCryptfs - wieso nicht nutzen, wenn es vor unberechtigtem Datenzugriff schützt.
Grüße, meshua
Obacht!
Ist bei mir auch so ein Thema:
Wie am besten extern sichern, wenn diese externe Sicherung nicht 100% Zugriffsgeschützt ist, weil sie einfach im Büro im Schreibtisch liegt.
Ich möchte aber von einem Win-System auf die Sicherung zugreifen können.
Wenn ich das richtig sehe, geht Ultrabackup in ein verschlüsseltes Verzeichnis nur mit Zugriff via Linux oder eben Synology.
steve.hatton
31.07.2018, 01:09
Danke.
Ist bei mir auch so ein Thema:
Wie am besten extern sichern, wenn diese externe Sicherung nicht 100% Zugriffsgeschützt ist, weil sie einfach im Büro im Schreibtisch liegt.
Ich möchte aber von einem Win-System auf die Sicherung zugreifen können.
Wenn ich das richtig sehe, geht Ultrabackup in ein verschlüsseltes Verzeichnis nur mit Zugriff via Linux oder eben Synology.
Meine externen Datenträger haben einen VERACRYPT(TrueCrypt) Container, der gemounted wird und dann die Dateien via robobopy vom/zum NAS synchronisiert werden. Vorteil: Dern VERACRYPT-Container kann ich unter Windows und MacOS (mit NFTS-Treibern von Paragon) mounten und komplett transparent verwenden: unterwegs greife ich auf mein Lightroom Bilderverzeichnis auf diesem Wege zu (lesen+schreiben). Nachteil: man kann nicht direkt am NAS sichern, weil es leider keinen VERACRYPT-Port für Synology gibt. Ich bin daher auch noch auf der suche nach einer einfacheren (robusten) Alternative zum VERACRYPT Container...
Grüße, meshua
Es gäbe da noch die Alternative, VeraCrypt auf der Synology NAS in einem Docker Container zu betreiben, aber das braucht Experimentierfreudigkeit und eine gewisse Risikobereitschaft, bis das sauber läuft ...
https://hub.docker.com/r/dcflachs/veracrypt-gui/
Es gäbe da noch die Alternative, VeraCrypt auf der Synology NAS in einem Docker Container zu betreiben, aber das braucht Experimentierfreudigkeit und eine gewisse Risikobereitschaft, bis das sauber läuft ...
https://hub.docker.com/r/dcflachs/veracrypt-gui/
Das hatte ich auch schon überlegt....ABER...der hierfür erforderliche SYNOLOGY Virtualization Manager benötigt zwingend das BTRFS Dateisystem - und meine Daten habe ich noch auf einem EXT4 Dateisystem gelagert ... und sehe im Moment auch keinen triftigen Grund, das zu ändern. :P
Grüße, meshua
Alternativ gibt's für den Notfall das Desinfec't Tool (https://www.heise.de/security/meldung/Sicherheitstool-Noch-einfacher-Viren-jagen-mit-Desinfec-t-2018-4055473.html), mit dem man NAS Festplatten auslesen kann, auch wenn die NAS den Geist aufgibt. Ausnahme: QNAP, die haben das Locigal Volume Management von Linux modifiziert, da geht das nicht mehr.
Eine ausführliche Beschreibung, wie man NAS Platten retten kann, findet man in der aktuellen c't ab Seite 152 ... Den ganzen Artikel (https://www.heise.de/ct/ausgabe/2018-17-Mit-Desinfec-t-Daten-von-NAS-Platten-kratzen-4122008.html) gibt's leider nur für Käufer und Abonnenten.
Ausser der Datenrettung kann man damit natürlich noch ganz viele Sachen machen ...