URL: https://www.overclockers.at/linux/frage_zu_mdadm_raid_testen_181150/page_1 - zur Vollversion wechseln!
Hab vor mir nen Rechner mit nem Softare Raid 5 stehn. Da das Raid vor inbetriebnahme ausführlich getestet werden mag stellt sich mir nun die Frage, welche Fehler alle auftreten könnten.
Bis jetzt hab ich eine Hd vom Strom getrennt, der Fehler wird erkannt und die hd als Fehlerhaft markiert.
Formatier ich allerdings eine Hd wird kein Fehler erkannt. Laut cat /proc/mdstat laufen alle Hds so wie sie sollten. Liegt diese Fehlererkennung nicht in der Macht von mdadm?
Fällt jemandem noch eine Möglichkeit ein, wie Fehler auftreten können?
tia schizo
Das problem beim formatieren ist, dass er nicht wissen kann welche daten passen und welche nicht, es liegen schließlich alle daten nur 2 mal vor, mit einem filesystemcheck sollte das ganze aber behoben sein afaik .
Da du auf datensicherheit wert legst würde ich dir noch raten auf reiserfs zu verzichten, da es da theoretisch zu datenkorumption kommen könnte, wenn du eine rw gemountete partition einfach aus machst. Nimm lieber ext3.
Zitat von MarcellusDas problem beim formatieren ist, dass er nicht wissen kann welche daten passen und welche nicht, es liegen schließlich alle daten nur 2 mal vor, mit einem filesystemcheck sollte das ganze aber behoben sein afaik .
Da du auf datensicherheit wert legst würde ich dir noch raten auf reiserfs zu verzichten, da es da theoretisch zu datenkorumption kommen könnte, wenn du eine rw gemountete partition einfach aus machst. Nimm lieber ext3.
du solltest die einzelnen devices von einem raid gar nicht mehr ansprechen, aber eine kurze verständnisfrage, auf was hast du dein filesystem gespielt. Oder auf was sollte es drauf sein?
Zitat von Marcellusdu solltest die einzelnen devices von einem raid gar nicht mehr ansprechen, aber eine kurze verständnisfrage, auf was hast du dein filesystem gespielt. Oder auf was sollte es drauf sein?
Wenn du schon ein raid 5 machst solltest du auch dabei bleiben, bei einem raid 1 verlierst du 50% der festplattenkapazität, bei einem raid 5 verlierst du eine der mindestens 3 platten, das fängt bei 33% an und geht mit jeder zusätzlichen platte runter.
Redundanz hast du in beiden Fällen das Problem ist nur, dass du gleich große Platten verwenden musst. Komm blos nicht auf die idee eine platte in der mitte durchzupartitionieren und dann jeder partition einzeln ins raid einzubinden, weil du noch kleinere hds über hast.
Falls dir die hd ausfall redundanz nicht wichtig ist würd ich dir eher zu einem lvm raten, da ist allerdings ziemlich sicher alles weg, sobald eine hd eingeht.
Und du kannst hds auch im laufenden betrieb bei keiner hd belastung in den standby schicken, tool dazu ist hdparm, es gibt viel, seeeeeeeeeehr viel dokumentation dazu was du machen kannst.
Zitat von MarcellusWenn du schon ein raid 5 machst solltest du auch dabei bleiben, bei einem raid 1 verlierst du 50% der festplattenkapazität, bei einem raid 5 verlierst du eine der mindestens 3 platten, das fängt bei 33% an und geht mit jeder zusätzlichen platte runter.
ZitatRedundanz hast du in beiden Fällen das Problem ist nur, dass du gleich große Platten verwenden musst. Komm blos nicht auf die idee eine platte in der mitte durchzupartitionieren und dann jeder partition einzeln ins raid einzubinden, weil du noch kleinere hds über hast.

ZitatFalls dir die hd ausfall redundanz nicht wichtig ist würd ich dir eher zu einem lvm raten, da ist allerdings ziemlich sicher alles weg, sobald eine hd eingeht.
Und du kannst hds auch im laufenden betrieb bei keiner hd belastung in den standby schicken, tool dazu ist hdparm, es gibt viel, seeeeeeeeeehr viel dokumentation dazu was du machen kannst.

locate hdparm | grep etc
in gentoo ists /etc/conf.d/hdparm
da solltest du ohne probleme alle einstellungen finden, examples sollten auch dabei sein, ich hab mich damit nicht wirklich viel beschäftigt, aber wie gesagt es gibt einen haufen doku dazu
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026