Ein Ausdruck des Beitrags mit 26 Antworten ergibt bei 3 Antworten pro Seite ca. 9 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 44.91 Gramm Papier.
-- Veröffentlicht durch Torgal am 15:45 am 26. Aug. 2009
Ich hatte mir auch schon überlegt ne Imaging Software zu hause fürs Betriebssystem einzusetzen. Da mir ein frischer Start alle 2-3 Jahre aber auch viel lieber ist hab ichs gelassen und benutze nur ein nettes kleines Tool zur Filesyncronisation auf meine eSATA (soo viel angenehmer als auf USB) Platte: Free Filesync Da mach ich jedes Wochenende schnell nen sync. Profil laden, Syncknopf drücken, fertig. Kann ich nur empfehlen das Ding! :thumb:
-- Veröffentlicht durch joker8866 am 3:59 am 20. Aug. 2009
Also ich mach die Backups auch noch per Hand. So alle 1-2 Monate bzw. wenn sich viel geändert hat auch mal häufiger. Mein HTPC hängt per Gigabitleitung im Netz und hat 2x E-Sata Platten dran, die ich übers Netz an/auschalten kann. Damit bekommt man beim Image erstellen bzw. einspielen auf 60-70MB/sec. Man brauch keine CD/DVD mehr brennen. Ich nutze auch Acronis. Der Vorteil ist einfach, wenns das System zerschossen hat, Rescue CD einlegen, dann kann man auf USB und Netzwerk zugreifen, das Backupfile auswählen und wieder draufspielen. Und das in 5-10Min je nach Größe. (20GB Datenmenge hat meine Syspartition) Sogar mim Laptop über W-Lan. Da allerdings viel langsamer, aber es geht
-- Veröffentlicht durch holg am 23:19 am 9. Juni 2009
natürlich, ganz nach Geschmack :)
-- Veröffentlicht durch Ino am 19:55 am 9. Juni 2009
sie können auch sogar in mehreren ordnern liegen ;)
-- Veröffentlicht durch holg am 11:40 am 9. Juni 2009
Wenn Ihr alle wichtigen Daten in einem "home" Verzeichnis habt, dann kann man es täglich z.B. mit rsync als cronjob auf eine externe Platte sichern. Das geht auch als Batch unter Windows mittels der Taskplanung, wird aber leider zu wenig genutzt, kostet aber nix und die Daten sind leicht "wiederherzustellen", da sie ganz normal auf Platte vorliegen - man braucht kein recovery - die Backuplast verringert sich nach dem ersten Backup, weil nur Dateiunterschiede übertragen werden. Das sind unschätzbare Vorteile. Das ist natürlich nicht oder nur eingeschränkt für das Gesamtsystem geeignet.
-- Veröffentlicht durch hoppel am 21:31 am 2. Juni 2009
:ocinside: aber normaler Journalismus setzt schon etwas mehr Vorbereitungszeit voraus, also tipp ich mal auf Zufall;)
-- Veröffentlicht durch Hitman am 21:11 am 2. Juni 2009
THG hat komischerweise gerade heute einen Testbericht gemacht über das Thema... Keine Ahnung wo die die Inspiration herhatten.... Ich sag ja, wir sind das beste Forum im Netz.
-- Veröffentlicht durch hoppel am 20:18 am 2. Juni 2009
also True Image scheint ein prima Programm zu sein aber für meine 4 Rechner ist mir eine Investition von annähernd 50 Eus zu viel, ich würde lieber die 50 Eus in eine 4770 investieren, aber das nur am Rande;) ich suche doch lieber nach Freeware zum Spiegeln, manchmal installiere ich auch neu und habe natürlich auch meinen Tool´s Ordner auf der zweiten Platte und die Bilder nebst Filmen sind auf 2 Rechnern auf den zweiten Festplatten, es fehlt aber bei mir die Platte im Safe:lol: Wenn wirklich mal der Blitz im Netz unterwegs ist und beide Rechner gerade an, wird´s böse enden...
-- Veröffentlicht durch daniel am 12:44 am 2. Juni 2009
ich seh das genauso wie rage82. ich hab auch nen Ordner, wo meine wichtigen Programme u. Updates drin liegen. Dauernd Backups anlegen ist mir auch zu aufwendig. Speziell das Brennen der Backup DVDs unter Dos am Laptop benötigt 1,5h. Keine Ahnung warum das so lahm geht- aber es ist so u. kann nicht beschleunigt werden. Da bin ich in Summe mit der Neuinstallation viel schneller. Besonders wichtige Daten lege ich auf einer externen HDD ab, welche nur für Backupzwecke angeschlossen wird und zusätzlich auch noch auf DVD. NT Überspannung hat mir noch keine HDD geschrottet, obwohl ich sicher >6 durchgebrannte NTs in den letzten 10 Jahren hatte. Und wenn DAUs schon mit PCs arbeiten, sollten sie keine wirklich wichtigen Daten am PC ablegen. Sonst soll jeder für sich entscheiden, wie wichtig ihm seine Daten sind und wie er sie sichert. Nicht jeder erzeugt dieselbe Datenmenge, die er sichern will/muss. Darum gibt es keine pauschale "beste" Backup Lösung für jeden Computer- (ich schreibe absichtlich nicht PC) Nutzer. LG, Daniel
-- Veröffentlicht durch rage82 am 23:02 am 1. Juni 2009
und 20-30 mal eins anlegen oder zurückspielen wenn ich software behalte oder nicht?
-- Veröffentlicht durch kammerjaeger am 22:56 am 1. Juni 2009
Ein Systembackup mit Acronis zurück spielen dauert wenige Minuten... ;)
-- Veröffentlicht durch rage82 am 22:52 am 1. Juni 2009
weil das im laufe von ca 1-2 jahren passiert und es den aufwand nich wert ist. ich brauche länger regelmäßig ein backup zu machen, als dann neu zu installieren, win7 mit problemen in ca. 2h installiert und alles läuft, inklusive diskpart session, ultramon fehlersuche usw. mit einem backup komm ich drunter auf keinen fall weg.
-- Veröffentlicht durch kammerjaeger am 22:31 am 1. Juni 2009
Warum machst Du kein Backup von Deiner Installation mit allen wichtigen Treibern + Software, bevor Du "das System zumüllst"? Das erspart viel Arbeit, statt alles neu installieren zu müssen... ;)
-- Veröffentlicht durch rage82 am 14:38 am 1. Juni 2009
dafür habe ich ja den extra ordner in dem alles liegt. ich teste aber auch gern mal software und mülle das system zu, eine neuinstallation hat dann den vorteil, das ich den ganzen getesteten kram los bin und nur das wieder habe, was ich als sinnvoll ansehe (und in besagten ordner verschoben hab ;) )
-- Veröffentlicht durch hoppel am 14:31 am 1. Juni 2009
Nunja, das Spiegeln der Systemplatte mache ich immer dann, wenn ich eine schnellere oder größere Platte bekomme und diese eben Platte Nummer 1 wird und ja, dass System ist schnell installiert, aber nicht die vielen kleinen Helferlein, die man so nach und nach installieren muß ;) Das dauert manchmal Tage...
-- Veröffentlicht durch rage82 am 10:00 am 1. Juni 2009
Zitat von kammerjaeger um 0:26 am Juni 1, 2009 Ich nutze Acronis True Image. Ist zwar nach 15 Tagen kostenpflichtig, aber sein Geld wert.
Zitat von rage82 um 13:38 am Mai 31, 2009 das problem der überspannung geh ich mit ner master/slave-steckerleiste mit überspannungsschutz an, die hat mir schonmal meine hardware gerettet bei nem blitzeinschlag in der straße. nie wieder ohne sowas ;)
| Und was ist, wenn das NT sich mit einer Überspannungs ins Nirvana verabschiedet? Dann hilft keine Dose gegen Blitzschutz... ;)
| dann überlebt es aber die nas. (wasserschaden is bei mir auch möglich, daher setze ich auf externe lösung) ;) image mach ich ebenfalls keins, dafür kommen zu oft programm updates, als das sich das lohnen würde. ich hab nen ordner in dem alles was neuinstalliert werden muss immer aktuell liegt und den muss ich dann nur schnell abarbeiten. um nach einer installation win schnell auf den neuesten stand zu bekommen nutz ich updatepacks, welche ich auch per vlite unregelmäßig in win integriere, wenn ich grad mal wieder am basteln bin.
-- Veröffentlicht durch Hitman am 8:41 am 1. Juni 2009
So ist es. Das sind ja alles nur rein Hypothetische Fälle. Aber nehmen wir mal an, dass jemandem ne Wasserkülung ausläuft. Die sind heutzutage ja doch schon weit verbreitet. Dann fließt das in die 12V Leitung und FAZZ. Das NT verabschiedet sich und nimmt noch ein paar Geräte mit. Glück ist, wenn die Sicherungsplatte überlebt. Pech ist wenn alles mitgenommen wird und alle Daten weg sind. Das ist nämlich meist viel schlimmer als der Neukauf eines PCs.... Vor allem Arbeitsintensiver. @Hoppel Also ich habe wie Kammerjäger Acronis True Image. Damit kannst du Windows und Konsorten per inkrementiellem Backup machen (also zuerst machst du halt ein Vollbackup wenn alles schön sauber installiert ist mit allem was du brauchst). Danach je nach Bedarf zweimal im Monat z.B. inkrementiell. Was man beachten muss: Bei inkrementiell brauch man ALLE vorherigen inkrementiellen Backups, es dürfen da keine Fehler etc. drinne sein, sonst sind ALLE inkrementiellen Schrott. Alle drei Monate daher wieder ein Fullbackup, die inkrementiellen löschen, das erste Fullbackup behalten. Hatte das seinerzeit genau so in meiner Firma gemacht mit nem Script welches dann darauf achtet: 2 Fullbackups drauf und beim nächsten Full das älteste Full und die ältesten inkrementiellen löschen. Da brauch man da auch keine Hand anlegen. Und für die Datensicherung der 2.Platte rate ich immer noch per simplen STRG-C , STRG-V zu arbeiten. Denn wenn man wie gesagt ein Backup Schrott hat, sind alle Weg. Dann doch lieber direkt die Rohdaten drauf, wenn ein Film weg ist, was solls, aber dann ist nicht alles weg. Zudem wie erwähnt eine gute Ordnerstruktur. Z.B.: Festplatte2: Videos, Bilder, Musik, NEU Festplatte3: Videos, Bilder, Musik Und wenn der NEU Ordner bei mir etwas größer wird, dann kopier ich die Daten per Hand in Festplatte3 ein und sortier sie dann auf Festplatte2 ein. So hab ich immer das neuste drin und komm nicht durcheinander...... "spiegeln der Systemplatte" Naja, früher hat man die gespiegelt mit Ghost... Aber das ist mittlerweile in meinen Augen für die Katz. Man hat so schon schneller neu installiert als eine Spiegelung rüber zu schmeißen. Außerdem hat man das ja nur einmal. Bei Firmen die das öfter machen bei gleichen PCs lohnt das.
-- Veröffentlicht durch kammerjaeger am 0:26 am 1. Juni 2009
Ich nutze Acronis True Image. Ist zwar nach 15 Tagen kostenpflichtig, aber sein Geld wert.
Zitat von rage82 um 13:38 am Mai 31, 2009 das problem der überspannung geh ich mit ner master/slave-steckerleiste mit überspannungsschutz an, die hat mir schonmal meine hardware gerettet bei nem blitzeinschlag in der straße. nie wieder ohne sowas ;)
| Und was ist, wenn das NT sich mit einer Überspannungs ins Nirvana verabschiedet? Dann hilft keine Dose gegen Blitzschutz... ;)
-- Veröffentlicht durch hoppel am 20:08 am 31. Mai 2009
:thumb:schönes Thema! welche Software nutzt ihr zum spiegeln der Systemplatte, Freeware wie immer bevorzugt, sowas wie Maxblast aber ohne Herstellereinschränkungen, Dosmode ist mir recht...
-- Veröffentlicht durch rage82 am 13:38 am 31. Mai 2009
das problem der überspannung geh ich mit ner master/slave-steckerleiste mit überspannungsschutz an, die hat mir schonmal meine hardware gerettet bei nem blitzeinschlag in der straße. nie wieder ohne sowas ;) ich meinte das mit der externen löschen auch nur, wenn der benutzer anfängt sachen zu löschen. wenn ihm beispielsweise gerade während er da rumspielt die hdd im rechner stirbt z.b. wollte damit nur sagen, das so jemandem halt dann wirklich nicht zu helfen ist. aber das mit dem stromschlag ist trotzdem ein einwand, meine nas hat nen button usb-copy, da könnte ich unkompliziert noch ein weiteres laufwerk als sicherung benutzen :lol:
-- Veröffentlicht durch Hitman am 13:19 am 31. Mai 2009
Natürlich nicht. Dennoch ist eine Externe Festplatte das einzig logisch, billige. Ich habe z.B. einen Super Adapter mitgeliefert bekommen, ich glaube das war beim Gigabyte Board. Da hat man nach außen hin einen S-ATA Anschluss und einen Stromadapter. So klemme ich die Platte einfach an, ohne auch intern rumbasteln zu müssen. Kostenpunkt: 0€ (evtl. kriegt man den Adapter für 10€ inkl. Versand) Eine intern verbaute Datensicherung ala Raid-1 hat den Nachteil: - habe ich einen Virus nehme ich den mit ins Raid - hackt sich jemand auf meinen Rechner und kommt auf die Platte, weg - Brennt mein PC (übertrieben), weg - Klaut jemand den PC, weg - Habe ich Probleme mit den Benutzerrechten, weg - stirbt mein Mainboard und der neue Controller frisst das Raid nicht: weg Benutze ich nun eine USB-Platte: Langsam Benutze ich ein NAS: Teuer. Hab ich das an 100MBit habe ich nur noch maximal 12,5MB/s. An 1GBit 125MB/s, obwohl die Dinger das eh nicht schaffen und verdammt teuer sind. Dann dauert die Sicherung ewig außer sie läuft immer. Läuft sie immer und es kommt zu ner Überspannung im Haushalt (Blitzeinschlag, obwohl, dann ist einem der Rechner auch wurst ;) ) so geht die auch hinüber. @Rage82 wenn du die ausm Schrank nimmst und löschst ists doch egal. Die Daten bleiben auf einer Platte gespeichert. Deswegen kann man auch getrost wenn die Sicherungsplatte ausm Schrank hinüber ist sich einfach ne neue kaufen und wieder die Daten erstmal sichern bevor man mehr macht. Der Plattenausfall von 2 Festplatten gleichzeitig lässt sich nicht vermeiden. Man müsste noch eine Sicherung machen etc. etc. , DAS allerdings grenzt schon ein wenig an Irrsinn. Machen wir uns nichts vor, die Vermeidung von Datenverlust lässt sich NIE auch durch 1000 Sicherungen voll ausmerzen, sondern nur das Risiko verringern dass er eintritt. Das Problem ist, dass viele Leute glauben: Wenn ich 2 Platten zu einer anschließe wird mein PC schneller. Wenn ich 2 Festplatten im PC spiegel sind die Daten sicher. Das stimmt einfach so nicht und gibt wenns wirklich ans Eingemachte geht nur Probleme. Dann sicher ich die Daten doch nach Schema F. Mache mir einen Video-Ordner, einen Musik-Ordner, einen Bilder-Ordner, Spiele-Ordner, Programme-Ordner und muss dann im Zweifelsfall nicht suchen wie doof. Eine Seite ausdrucken und sich irgendwo hinlegen kann man ja auch,dann hat man das zur Stelle wenn eine Platte kaputt geht.
-- Veröffentlicht durch rage82 am 12:31 am 31. Mai 2009
Zitat von The Papst um 12:01 am Mai 31, 2009 Die Festplatte von meinem Vater wurde von einem NT mit in den Tod gerissen.
| es ist möglich, muss aber auch nicht alle festplatten im rechner betreffen, wenn mal eine stirbt
-- Veröffentlicht durch kammerjaeger am 12:22 am 31. Mai 2009
Zitat von rage82 um 11:55 am Mai 31, 2009 außerdem schützt raid1 nicht vor fehlbedienung durch anwender, ebenfalls ein gewichtiger punkt, den man aufnehmen könnte.
| :lol: :thumb: Haben wir erst kürzlich erlebt, wo der "Möchtegern-Admin" einer Firma so "clever" war, nach dem Defekt einer Platte des RAID1 diese nicht einfach ausgebaut hat , sondern erstmal "chkdsk /p /r" ausführen musste, wodurch auch auf die intakte Platte kein Zugriff mehr war... ;)
-- Veröffentlicht durch The Papst am 12:01 am 31. Mai 2009
Die Festplatte von meinem Vater wurde von einem NT mit in den Tod gerissen.
-- Veröffentlicht durch rage82 am 11:55 am 31. Mai 2009
das bei einem netzteildefekt bei beiden raid-1 platten die daten weg sein sollen klingt ein wenig übertrieben. es ist möglich das beide platten gleichzeitig sterben, da beide im rechner stecken und sich damit im einflussbereich anderer sterbender komponenten befinden. aber mir ist bisher durch netzteildefekt noch nicht eine platte gestorben. außerdem schützt raid1 nicht vor fehlbedienung durch anwender, ebenfalls ein gewichtiger punkt, den man aufnehmen könnte. das man sich extra fp3 aus dem schrank holt und dann da rumlöscht is zwar auch noch möglich, aber demjenigen ist dann wirklich nicht mehr zu helfen :)
-- Veröffentlicht durch Hitman am 10:50 am 31. Mai 2009
Also das Thema Festplatten kommt ja öfter vor, daher möchte ich meine Meinung dazu hier äußern. Wenn ihr Vorschläge habt oder mich verbessern wollt könnt ihr das gerne tun. Das Thema ansich ist aber so gut wie immer aktuell. Könnte also gerne auch ein Sticky werden, wo ist mir selber noch nicht klar ;) Fast jeder On-Board-Controller hat Raid-0 und Raid-1 Funktionen. Außerdem bieten Einige Raid-5. Ich werde demnach mal auf die 3 Raid-Arrays eingehen, Kombinationen sind natürlich möglich aber für Normal-Sterbliche kaum sinnig. Dazu dann gleich mehr.Folgendes ist für uns relevant. Raid-0: Raid-0 ist ein Zusammenschluß von mehreren Festplatten. Dabei wird immer die geringste Größe benutzt. Will heißen habt ihr eine 200GB Festplatte und eine 250GB Platte in ein Array genommen habt ihr effektiv 400GB. Vorteil eines Raid-0: - Lese-/Schreibraten erhöht (MB/s) Nachteil eines Raid-0 - Zugriffszeiten erhöht - Bei Ausfall einer Festplatte sind alle Daten weg Raid-1: Bei einem Raid-1 werden die Festplatten gespiegelt. Hier mal dasselbe Beispiel: eine 200GB, eine 250GB. Effektiv sind also maximal 200GB an Daten. andersrum würde das Raid nicht funktionieren. Vorteil: - Daten bei dem Ausfall einer Platte sofort nutzbar Nachteil: - nur halbe Festplattenkapazität - geringere Performance - erhöhte Zugriffszeit Raid-5: Es sind mindestens 3 Festplatten nötig. Dabei werden Raid 0 und 1 sozusagen vereint. Während man bei Raid-01 und Raid-10 mindestens 4 Festplatten braucht, sind bei Raid-5 mindestens 3 Festplatten nötig. Das bedeutet für die Kapazität: Raid-10: 4x200GB = 400GB Raid-01: 4x200GB = 400GB Raid-5: 4x200GB = 600GB Bei Raid-10 und 01 brauch man ab da gerade anzahlen von Festplatten. Will heißen mind. 4 dann 6, 8,10 usw. Bei Raid-5 sind es minimal 3 dann 4, 5,6,7 usw. Dabei geht immer nur eine Festplattenkapazität verloren. Es lohnt sich also bei zunehmenden Festplatten. Eine Festplatte wird sogesehen als Parität benutzt. Dabei werden die Paritätsdaten auf allen Platten verteilt. Leider leider sind die billigen Controller nicht in der Lage die CPU-Belastung zu halten. Das heißt die Performance wird vom Controller dermaßen eingedämmt dass sich für Privatanwender kaum Vorteile ergeben. Einige PCs brechen bei der Belastung ein oder zeigen sichtbare Ruckler. Einzig ein guter Controller schafft abhilfe, kostet jedoch um einiges mehr. Was wollen wir haben? Wir wollen viel Kapazität, Geschwindigkeit und nen niedrigen Preis. Ich mache das mal anhand eines Beispiels der momentanen Marktsituation fest. Festplatte 1: P1:160GB + P2: 160GB Festplatte 2: P1:1500GB Festplatte 3: P1:160GB +P2:1340GB Sieht das Wirr aus? Wir haben jedoch 1500GB an Nutzdaten. Festplatte 3 ist extern. Wir lagern sie im Schrank bei uns , oder schließen sie per USB an, ESATA wäre ideal wegen der Geschwindigkeit. Diese kommt aber auf keinen Fall in unseren PC. Denn das würde bedeuten, wenn der PC eine Fehlfunktion hat, sind unsere Daten weg. Das wollen wir aber nicht. Die im Schrank liegende FP3 hat demnach das Betriebssystem drauf und 1340GB Nutzdaten. Variable Daten von 160GB von FP1 sind auf FP2, damit bleibendie Nutzdaten von 1340GB die wir dann ja auf FP3 sichern. Klingt alles sehr konfus was? Ist aber eigentlich ganz einfach. Die Daten sind gesplittet, die wichtigen 1340GB sind doppelt vorhanden. Beim Betriebssystemausfall müssen wir nicht neu installieren sondern nur zurückspielen. Was zeigt die Zukunft und wieso kein Raid? Raid-0 hat eine zu geringe Sicherheitsfunktion. Raid-1 würde 50% des Plattenplatzes kosten, wäre aber immer noch im Rechner und falls demnach das Netzteil verreckt wären alle Daten weg. Zudem brauch man kein Raid-0 da die heutigen Festplatten die 100MB/s alleine schaffen. Als Betriebssystemplatte kommt später eine SSD in Frage. Die sind Aufgrund von niedrigen Zugriffszeiten die beste Art das Betriebssystem zu benutzen und die häufigsten Programme. Aufgrund des Preises jedoch fällt dies aus. Später eine wirkliche Alternative. Ich hoffe ich habe nichts vergessen, wenn ja bitte schreiben.
|