Superuser

Autor Thema: rpool - mirror - hotspare - (wie richte ich die hotspare richtig ein)  (Gelesen 4741 mal)

bayoda

  • Gast
Hallöchen

Auf meiner SunFire hier hab ich jetzt einige Testläufe gemacht:

rpool   - mirror  -> geht ja tadellos   
hotspare dazu -> geht auch noch super

dann ausfall simuliert - sprich platte 1 gezupft - > system bootet tadellos

hotspare springt an

aber jetzt kommts:   wenn ich die platte 1 wieder reingeb  - zerlegt sich mein ZFS von selbst...

ich bin mir jetzt nicht sicher, was da passiert ...

sind für die hotspare - die gleichen arbeiten im rpool notwendig wie beim mirror   (SMI label statt efi label)
muss da mit installgrub der grub auch drauf? schon vorab?

danke für euren input

gruss aus össiland...

Michael

sonnenblen.de - Das unabhängige Sun User Forum


beta17

  • Gast
hast du irgend ein Harddisk-Controller der auch Hot-Swap unterstützt??
und das "Zupfen" der Disk ist kein "Supporteter" vorgang um einen Ausfall zu simulieren.
Kann aber muss nicht gehen! Du kannst ja an deinem Fahrzeug auch nicht während der Fahrt das linke Rad ersetzten ;-)

Offline Toktar

  • Sobl Master
  • ****
  • Beiträge: 333

aber jetzt kommts:   wenn ich die platte 1 wieder reingeb  - zerlegt sich mein ZFS von selbst...




Die Platte mal "geputzt", bevor sie wieder reingsteckt wird oder wie machst du das?
Was passiert mit einer vollkommen neuen leeren Platte, die eingesteckt wird, zerlegt sich das ZFS dann auch?

Mit Platte ziehen und wieder reinstecken, wenn die hotspare eingesprungen ist, hab ich selbst bei richtigen(tm) Raidcontrollern nie rumexperimentiert.
Erst fertig rebuilden lassen und die Platte nur im leeren Zustand wieder ins Raid einbinden.
Toktar
--
Jawoll!
Und DNS braucht's nicht, das ist was fuer Weicheier, die sich keine Zahlen merken koennen.
[Karlheinz Boehme in dcsf]

Offline Ebbi

  • Sobl Administrator
  • Sobl Guru
  • *****
  • Beiträge: 1315
  • Minusgeek
und das "Zupfen" der Disk ist kein "Supporteter" vorgang um einen Ausfall zu simulieren.
Ähem... ;)
Seit wann wird denn auch noch der Ausfall einer Platte zertifiziert?
Wenn das Ding weg ist, ist es weg.
Egal ob sich der schleichende Tod durch sägende Geräusche ankündigt oder ob gleich gezupft wird.

Hexxer

  • Gast
Naja, das "zupfen" halte ich schon für OK. Immerhin müsste man ja auch mal davon ausgehen das Kunden jetzt nicht unbedingt auf Marketinggeschwafel und solche Dinge selber testen. Sei es im SAN oder eben direkt an der Maschine. Ich glaub auf ähnliche weise hab ich an ner Test 880 sowas auch mal hinbekommen, der Pool war danach im Eimer, no way out.

bayoda

  • Gast
Hallöchen

so nachdem ich da einiges an Testarbeit hingelegt habe mit dem rpool gibts folgende Hinweise:

mirrored rpool  -> mit einer Hotspare:
Platte im laufenden Betrieb "gezupft" -> sprich rausgeholt -> sollte einfach einen totalausfall von 0 auf 1sec zeigen:

Hotspare springt an. (bis dahin tadellos)

Was nicht geht - > die platte zurück online bringen ohne sie komplett wo anderst zu formatieren.


Nächstes nettes Feature:

mirrorred rpool gehabt -> osol2008.11 neu installiert  ->  damit wird der mirrored pools "aufgelöst"  (glaubt man) -> update auf SNV111a  (OSOLemio 2009.06) - und tschüss weg war das system nach dem neu booten.

nächstes nettes feature (or is it a bug)
Installier auf der Maschine ein OSOL 2008.11  -> richte einen mirror ein.... komme dann drauf weils grad so lustig ist - ich installier mir das OSOL nochmal (saubere installation) - (neuinstallation bricht ja den mirrored pool auf)  und die daten vom mirror waren plötzlich da wieder da.... 

Tipp -> booten -> format -e   -> fdisk -> partitions löschen -> speichern und komplett neu installieren, sonst gibts da anscheinend übernahme späßchen....

Warum wir das gemacht haben? ganz einfach - wir wollten das system wirklichem stress aussetzen und wissen wie es reagiert in extremsituationen (damit wir dann wenn die maschinchen im RZ laufen nicht vor einem fehlerhaften OS stehen wie die esel vor dem neuen Tor (oracle)

beste grüße

Michael


Offline linus83

  • Sobl Bachelor
  • ***
  • Beiträge: 144
Zitat
Was nicht geht - > die platte zurück online bringen ohne sie komplett wo anderst zu formatieren.

Darüber habe ich auch mit mit Detlef Drewans gesprochen, da handelte es sicher aber im ein raidZ. Diesen Verhalten ist durchaus "normal" Wenn Du die Platten raus ziehst, dann kann es passieren, dass die Spielgelhälfte ganz ist und keine kaputten Daten enthält. Es gibt Informationen auf den Platten, die zfs sagen zu welchen zpool sie gehören, wenn zfs derartiges ließt, dann versucht zfs sofort die Platte wieder in den pool einzubauen. Das kann eben schief gehen, wenn da schon Ersatz drin ist.

Ich glaube im Normalfall ist eine Platte kaputt und man ersetzt sie durch eine neue Platte und stopft nicht noch einmal die rein ;-)


Die Features zum mirrored-rpool: Open Solaris, wie auch Solaris 10 und SXCE (zumindest bei meinen letzten Versuch) unterstützen bei der Installation keinen mirrored rpool. Wenn Du das System installierst, dann wird auf einer Platte ein rpool angelegt. Also hast Du in Deinen Rechner 2 rpools und aus eigener Erfahrung weiß ich, dass zfs recht komisch regariert, wenn es 2 zpools mit dem selben Namen findet.


Mir ist so etwas ähnliches passiert, ich hatte meinen rechner neu gemacht, die Platte mit dem alten System raus. Opensolaris neu installiert, gebootet und gefreut das alles geht. Dann das alte system wieder rein und dann wollte nichts mehr so wirklich funktionieren.

viele Grüße
auch ein Michael *g*


P.S.: Ich habe zwar noch nich mit einen mirrored rpool rumgespielt, aber durch meine vielen Spielereien mit zfs bin ich zum Teil schon auf ähnliche Probleme gestoßen

Hexxer

  • Gast
Zitat
Ich glaube im Normalfall ist eine Platte kaputt und man ersetzt sie durch eine neue Platte und stopft nicht noch einmal die rein ;-)
Nicht zwingend wenn Du z.B. per Fcal arbeitest. Da reicht ein defekter Gbic/Kabel/switch/whatever, der dann eben ersetzt wird.