sonnenblen.de - Das unabhängige Sun User Forum
Hardware => Sun SPARC => Thema gestartet von: aecp am 14. April 2008, 15:35:15
-
Hallo Community,
ich bin neu hier und auch im Umgang mit Solaris.
Verwende eine SUN Fire V245 mit Solaris 10 drauf.
Mein Problem ist, das ich ein Hardware RAID 1 erstellen möchte, aber dabei schon scheitete.
Zu meinem Aufbau:
Ich habe 2x 75Gb SAS Platten in der SUN und möchte diese zu einem RAID 1 zusammen fassen.
Disk 1 = c1t0d0
Disk 2 = c1t1d0
Ich habe Solaris schon Installiert auf die Disk 1 c1t0d0.
Leider konnte man ja bei der Installation nur eine Platte auswählen und da nichts zusammenfassen.
Nun möchte ich Disk 1 c1t0d0 und Disk 2 c1t1d0 zusammen fassen.
Allerding wenn schon auf Disk 1 Solaris ist und da Partitionen gemountet sind, lässt sich das nicht mehr machen, da kommt dann immer:
# raidctl -c -r 1 c1t0d0 c1t1d0
RAID-Volume kann nicht erstellt werden; Festplatte "c1t0d0" ist eingehängt.
Ich kann aber auch nicht die root Partition / unmounten, geht einfach nicht, da in Benutzung.
Nun meine Frage, kann ich eine aktive Solaris Disk wo Solaris drauf ist, hinterher einem Hardware RAID hinzufügen und wenn ja wie?
Den das Tool raidctl kann man ja nur in der Console von Solaris absetzen.
Kann man das RAID nicht auch wie bei einem x86 im BIOS aktivieren?
Wenn ja, wie komme ich in das Bios? Beim Booten irgendwas drücken?
Hoffe auf schnelle Antwort, da es eillt.
Mit freundlichen Grüßen
-
Hallo aecp,
deine Fragestellung klingt sehr nach gewerblicher Arbeit.
Besteht für die V245 kein Supportvertrag bei SUN ?
Wir sind ein privates Hobbyisten-Forum - und da eilt nichts.
Wenn jemand sich bereit erklärt zu helfen, so macht er das freiwillig.
Allerdings erschließt sich mir noch nicht, warum ich schnell jemandem helfen soll,
den ich überhaupt nicht kenne?
Gruss
Jürgen
-
du kannst für die systemplatte das hardware raid nicht nutzen. in der 245 haben 4 platten platz. aus den ungenutzten platten kannst du ein raid bauen und das dann für z.b. daten mounten. für die systemplatte wirst du wohl auf slvm zurück greifen müssen und ein software raid damit bauen...
-
slvm = Solaris Logical Volume Manager (ehem. Solstice DiskSuite)? Ja, da wäre nachträglich noch was zu machen. Hatte ich damals für meinen Pentium-III PC-Server unter Solaris 8 gemacht und hat an sich funktioniert.
Dazu gibt es auch kompakte Anleitungen im Internet, wie z.B. hier (http://slacksite.com/solaris/disksuite/disksuite.html).
Grüße
escimo
-
Hallo,
erstmal danke für die schnellen Antworten, sorry ich wollte keine Hecktig verbreiten.
Und ja es ist für den Gewerblichen Einsatz gedacht. Aber wir haben bloß einen Bronze Status bei SUN und damit auch laaange Wartezeiten aus Support.
Da dachte ich, im Sonnenblen Forum findet man schlauere Köpfe und bessere Antworten.
Mit dem Solaris Volume Manager über xServer habe ich es auch schon mal probiert, aber da bekomme ich gleich gar kein RAID hin, eventl. wieder weil er keins bei eingehangenen Laufwerken machen kann.
Finde das total kompliziert und umständlich jede Partition so über metainit & metattach usw. anlegen zu müssen, aber wenn ich auch nur so die root partition gespiegelt bekomme ist es halt so. Früher soll es mal ein metatool unter Solaris 7 oder früher gegeben haben, mit dem das total easy ging.
Finde es auch komisch, das man ein RAID erst nach der Installation des OS zusammen bauen kann. Aber wenn man aus der Fenster Welt kommt ist das halt so.
Kann mir jemand sagen, wieviel Speicherplatz auf eine ungenutzten Partition für die metadb benötigt wird? Wovon hängt das ab?
MfG
-
Da dachte ich, im Sonnenblen Forum findet man schlauere Köpfe und bessere Antworten.
Komisch, meine Brieftasche ist aber fast immer leer und das obwohl ich nicht mehr ausgebe. :-\
Kann mir jemand sagen, wieviel Speicherplatz auf eine ungenutzten Partition für die metadb benötigt wird? Wovon hängt das ab?
Schaue mal in die Doku unter docs.sun.com (http://docs.sun.com). Ich hab damals einige MegaBytes für eine separate metadb-Partition auf einer 20 GB Platte benötigt.
-
Finde das total kompliziert und umständlich jede Partition so über metainit & metattach usw. anlegen zu müssen, aber wenn ich auch nur so die root partition gespiegelt bekomme ist es halt so.
Also wirklich kompliziert ist das meiner Meinung nach nicht. Eigentlich total easy, es wird nur bißchen trickreich wenn man bei der Installation kein Slice für die Meta DB reserviert hat und diese dann dem Swap abzwicken muss. Ansonsten sind die Handvoll metaxxx Befehle gleich runtergehackt. Ein Solaris Root Mirror ist binnen weniger Minuten erledigt, da dauert der reboot in der Regel länger...
Zum anderen wozu braucht es denn ein super simples Tool? Den Mirror richte ich einmal ein und danach ist erstmal die nächsten Jahre Ruhe. Wers einfach haben will, soll sich doch nen Windoof Server holen. ;)
Gruß Tschokko
-
Anleitung in 10 Schritten:
Step 1: Swap verkleinern (swap -d /dev/dsk/c1t0d0s1 ; format {slice 1 verkleinern, slice 7 ca. 20MB}; swap -a /dev/dsk/c1t0d0s1)
Step 2: VTOC von Bootdisk auf Mirror übertragen (prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2)
Step 3a: metadb -a -f -c 3 /dev/dsk/c1t0d0s7
Step 3b: metadb -a -f /dev/dsk/c1t1d0s7
Step 4a: metainit -f d10 /dev/dsk/c1t0d0s0
Step 4b: metainit -f d20 /dev/dsk/c1t1d0s0
Step 4c: metainit d0 -m d10
Step 5a: metainit -f d11 /dev/dsk/c1t0d0s1
Step 5b: metainit -f d21 /dev/dsk/c1t1d0s1
Step 5c: metainit d1 -m d11
Step 6: metaroot d0
Step 7: Anpassen /etc/vfstab für Swap
Step 8: init 6
Step 9: metattach d0 d20
Step 10: metattach d1 d21
Und was genau war da dran kompliziert??? Das hab ich jetzt in knapp 2 Minuten aus dem Kopf getippert..
Gruss
Dominik
-
Hallo,
erstmal danke für die reichhaltige hilfe.
Wollte niemanden auf die Füsse treten mit kompliziert und so.
Ist ja auch alles toll wenn ihr das in 2 Minuten aus dem Kopf könnt, ihr macht das vielleicht ja auch jeden Tag :P
Ich werde jetzt mal probieren mit metaxxx ein Soft RAID zu basteln.
Vor dem Problem mit keiner freien Partition für die metadb stand ich auch schon mal, da ich bei meiner ersten Solaris Installation letzt woche alle Partitions auf allen Space verteilt und am Ende wo ich dann ein RAID bauen wollte, brauchte ich ja wieder eine ungenutzte.
Danke für den tip mit der swap part Verkleinerung, wobei ich nicht genau weis wie man eine Partition verkleinern kann und den space dann an eine andere anhängen kann.
Den ersten Step verstehe ich irgenwie nicht, wo sag ich da wieviel ich abzwagen möchte.
Step 1: Swap verkleinern (swap -d /dev/dsk/c1t0d0s1 ; format {slice 1 verkleinern, slice 7 ca. 20MB}; swap -a /dev/dsk/c1t0d0s1)
-
Naja, swap löschen mit swap -d, dann in format die Rootdisk wählen, p, p, dann siehst Du wie gross Slice 1 ist:
partition> p
Current partition table (original):
Total disk cylinders available: 65533 + 2 (reserved cylinders)
Part Tag Flag Cylinders Size Blocks
0 root wm 564 - 6201 20.00GB (5638/0/0) 41946720
1 swap wu 0 - 563 2.00GB (564/0/0) 4196160
2 backup wm 0 - 65532 232.49GB (65533/0/0) 487565520
3 unassigned wm 6202 - 65526 210.47GB (59325/0/0) 441378000
4 unassigned wu 0 0 (0/0/0) 0
5 unassigned wu 0 0 (0/0/0) 0
6 unassigned wu 0 0 (0/0/0) 0
7 unassigned wm 65527 - 65532 21.80MB (6/0/0) 44640
Danach Nummer des Slices 1 eingeben und die neue Groesse angeben. Achtung: Aufpassen dass sich die Cylinder NIE!!! ueberlappen (ausser Slice 2 - Whole Disk).
Gruss
Dominik
-
Berechnet dieser bei eingabe der Größe die Cylinders automatisch?
woher weis ich wieviel Cylinders ich angeben muss bei einer größe von x Gb?
-
Sieht man doch. In meinem Beispiel ist Swap Cylinder 0 - 563, d.h. man müsste Swap neu Cylinder 0 - 560 machen (560e) und dann halt Slice 7 definieren als 561 bis 563e.
Gruss
Dominik
-
Ist ja auch alles toll wenn ihr das in 2 Minuten aus dem Kopf könnt, ihr macht das vielleicht ja auch jeden Tag :P
Nein. ;) Unix und die damit verbundene Hardware ist ein reines Hobby von mir. Beruflich bin ich Software-Entwickler... Und ausm Kopf wie es dominik kann, kann ich es natürlich nicht. Ich muss halt schnell nachschlagen im Inet und dann kanns auch schon los gehen.
Gruß Tschokko
-
Hallo Dominik,
muss ich zu dem Cylinder Bereich dann noch händisch die Größe angeben?
Was ist, wenn ich zu wenig Cylinder Bereiche angeben aber die Größe zu hoch ist?
Ich glaube das muss man irgendwie berechnen.
Installiere mein Solaris jetzt neu mit dem schönen PartManager bei der Installation und geben da schon die Partitionen für meinen zweck an inkl. der unuseed für die metadb.
Könnte man nich auch im SMC ein Soft RAID bauen, natürlich nur nachdem Solaris Installiert ist und mit der Root Partition? Aber ich glaub das bekommt das SMC nicht gebacken.
@Tschokko,
Ich schreib mir kleine TXT Files, wo ich mein neu gewonnenes Wissen verehwige ::)
-
aecp (wie heisst Du eigentlich wirklich?)
Das Slicing wird intern von 'format' IMMER auf Basis von Cylindern gemacht. Daher ist die Grösse des einzelnen Cylinders für Deinen Task nicht relevant. Nimm einfach von Slice 1 (SWAP) ein paar Cylinder weg und rechne sie zu Slice 7 (MetaDB) dazu. Danach mit 'p' ansehen wie gross die Slices neu sind.
Ansonsten empfehle ich das Lesen der entsprechenden Man-Pages, da ich irgendwie nicht wirklich einsehe, wieso ich für Dich Deine Arbeit (für die DU Geld kriegst) machen soll. Andererseits bin ich natürlich auch extrem käuflich :)
Gruss
Dominik
-
Hallo dominik,
ich heiße in wirklichkeit Christopher, aba okay.
Danke für deine Ausflüge in HD Cylinder und co.
Ich habe mal jetzt noch eine viel bessere Frage, bin gerade bei der Neu Installation von Solaris und da kann ich im Punkt Festplatte auswählen nun alle beide Disks auswählen und als gesamtes Volumen gibt er mir dann beide Platten an.
─ Festplatten auswählen ────────────────────────────────────────────────────────
In diesem Fenster wählen Sie die Festplatten für die Installation der
Solaris-Software aus. Beachten Sie zunächst das empfohlene Minimum. Dieser
Wert entspricht in etwa dem für die Installation der von Ihnen ausgewählten
Software ungefähr benötigten Speicherplatz. Wählen Sie so lange Festplatten
aus, bis der Wert von "Gesamte Auswahl" den empfohlenen Mindestwert
übersteigt.
HINWEIS: ** kennzeichnet die aktuelle Boot-Festplatte.
Festplatte Available Space
=============================================================================
[X] ** c1t0d0 69994 MB
be[X] c1t1d0 69994 MB (F4 zum Bear
beiten)
Gesamte Auswahl: 139988 MB
Empfohlenes Minimum: 4553 MB
Macht er da jetzt nicht schon automatisch ein RAID?
-
Kann man eigentlich auch mehr als 8 Slices machen?
Ich brauche die u.a. Slices und habe jetzt aber keine möglichkeit noch eine 9. hinzuzufügen für die spätere metadb?
─ Festplatte anpassen: c1t0d0 ──────────────────────────────────────────────────
Boot-Gerät : c1t0d0s0
EINTRAG: swap Empfohlen: 0 MB Minimum: 0 MB
================================================================================
Slice Einhängepunkt Größe (MB)
0 / 11264
1 swap 6146
2 /oracle 5122
3 /db01 5122
4 /db02 6146
5 /db03 5122
6 /db04 4099
7 /db05 8193
================================================================================
Kapazität: 69994 MB
Allokiert: 51214 MB
Rundungsfehler : 4 MB
Frei: 18776 MB
-
du kannst auch die slice 2 (slice 2 ist bei einem SMI label immer die gesammte disk) nicht für daten nutzen (oder benutzt du ein EFI label?) und mehr als die 7 nutzbaren slices kannst du auch nicht haben. das ist obergrenze. wenn du mehr brauchst, solltest du mit dem slvm (aka sds) arbeiten um dir "softpartitions" zu bauen.
-
Hallo, ich habe es nun so aufgebaut, aber nun wieder keine Part für die metadb übrig.
Dateisystem Größe belegt verfügbar Kapazität Eingehängt auf
/dev/dsk/c1t0d0s0 11G 3,7G 7,0G 35% /
/devices 0K 0K 0K 0% /devices
ctfs 0K 0K 0K 0% /system/contract
proc 0K 0K 0K 0% /proc
mnttab 0K 0K 0K 0% /etc/mnttab
swap 13G 608K 13G 1% /etc/svc/volatile
objfs 0K 0K 0K 0% /system/object
/platform/sun4u-us3/lib/libc_psr/libc_psr_hwcap1.so.1
11G 3,7G 7,0G 35% /platform/sun4u-us3/lib/libc_psr.so.1
/platform/sun4u-us3/lib/sparcv9/libc_psr/libc_psr_hwcap1.so.1
11G 3,7G 7,0G 35% /platform/sun4u-us3/lib/sparcv9/libc_psr.so.1
fd 0K 0K 0K 0% /dev/fd
swap 13G 32K 13G 1% /tmp
swap 13G 48K 13G 1% /var/run
/dev/dsk/c1t0d0s3 4,9G 5,0M 4,9G 1% /db01
/dev/dsk/c1t0d0s7 25G 25M 24G 1% /ctm_backup
/dev/dsk/c1t0d0s4 5,9G 6,0M 5,8G 1% /db02
/dev/dsk/c1t0d0s5 4,9G 5,0M 4,9G 1% /db03
/dev/dsk/c1t0d0s6 3,9G 4,0M 3,9G 1% /db04
/dev/dsk/c1t0d0s2 4,9G 5,0M 4,9G 1% /oracle
Wieso kann ich Slice 2 nicht nutzen, bei mir ist die jetzt 4,9G groß und ich kann Daten rein schreiben.
Ich werde nun die db Partitionen zusammen fassen, um noch eine Slice mehr für die metadb übrig zu haben. Wie groß auch immer die sein muss und welches file system muss die metadb haben? Kann dazu in den anleitungen nichts finden?!
Mein Ziel ist ja, den gesamten Inhalt von Disk 1 auf Disk 2 zu spiegeln, mit root / so, das im Falle eines Ausfalls einer Platte er immer noch mit der zweiten weiter machen kann und diese sich nach reperatur dann wieder spiegeln.
Kann doch nicht so schwer sien, selbst nicht bei Solaris ;D
-
Christopher:
Möchtest Du hier etwas lernen oder es einfach besser wissen? Lass Dir gesagt sein, dass Slice 2 NICHT benutzt werden darf. Selbst wenn es vordergründig vielleicht zu funktionieren scheint. Lerne lieber, wie man mit SVM Softpartitions erstellt. Oder benutze ZFS.
Vielleicht möchtest Du ja Deinen Chef davon überzeugen, Dir einen Solaris Admin 1-Kurs zu spendieren. Wer so viel Geld für einen (anscheinend wichtigen) Server ausgibt, der sollte am Wissen seiner Mitarbeiter nicht sparen. Was nützt einem die tollste Hardware wenn der Admin danach mangels Fachwissen alles kaputtbastelt???
Gruss
Dominik
-
Ich reserviere immer 32 MB auf der Slice 6 für die Meta DB.
Gruß Tschokko
-
Hallo dominik,
das was du da schreibst, mag zwar so sein, aber genau sagen warum ich slice 2 nicht beutzten kann, hast du bisher noch nicht.
Sag mir bitte nicht, das die für die /var vorgesehen ist, denn die spielt bei meiner Installation keine Rolle.
Ich muss auf der SUN ein Management System mit Oracel Datenbank installieren und dies benötigt nun mal mehrere Partitionen.
am Optimalsten wäre ein so eine Partition Aufteilung.
root /
oracle /oracle
db01 /db01
db02 /db02
db03 /db03
db04 /db04
db05 /db05
ctmbackup /ctmbackup
metadb /metadb
Leider kann ich bei der Solaris Installation nicht so viele angeben und mit format partition auch keine weiteren.
Ich werde jetzt ein paar db Partitionen zusammen nehmen, damit ich mehr frei habe.
Gibt es für die Soft Partitionen SVM eine GUI?
Wie kann man diese erstellen.
Ja ich will was lernen.
-
das was du da schreibst, mag zwar so sein, aber genau sagen warum ich slice 2 nicht beutzten kann, hast du bisher noch nicht.
Den genauen techn. Hintergrund der Slice 2 kenn ich nicht. Ich weiß nur dass diese vom System selbst benötigt wird. Gutes Beispiel ist der Befehlt prtvtoc, damit kann man sich die Plattenaufteilung (Slices) anschauen und als Device gibt man immer /dev/rdsk/cXtXdXs2 an. Wie man offensichtlich sieht wird hier die Slice 2 angesprochen!!! Darum würde ich mich an den Rat von Dominik halten und die Slice 2 unangetastet lassen. ;)
Zu den Soft Partitions solltest du hier genug Infos finden: http://docs.sun.com/app/docs/doc/816-4520/6manpiekl?a=view
Ich an deiner Stelle würde die Aufteilung der Slices wohl wie folgt vornehmen:
s0 root
s1 swap
s3 oracle -> und in dieses Slice legst du dann alle deine Soft Partions (oracle, db01-05, ctmbackup) an.
s5 metadb
Ich würde allerdings keine Oracle Datenbank auf die Systemplatten installieren. Besorg dir lieber noch zwei dicke Platten die du in die zwei freien Schächte der V245 schiebst. Dann erstellst einen ZFS Mirror und den Rest kannst du dann nach belieben simpel mittels ZFS konfigurieren.
Gruß
Tschokko
-
Slice 2 beschreibt wie gesagt die ganze Disk. Das ist eine Vorgabe von Solaris welche ihre Ursprünge in den 80ern hat. Wieviele Systemtools heutzutage wirklich noch darauf angewiesen sind ist unbekannt. Sun jedenfalls empfiehlt, Slice 2 als "whole disk" zu lassen und da es dank Softpartitions und ZFS keine Gründe gibt, wieso die 7 Standard-Slices nicht ausreichen sollten, wollen wir einfach dieser Vorgabe folgen.
Viele Autos benötigen heutzutage gemäss Betriebsanleitung Super 98 Benzin. Dank dem Klopfsensor könnte man auch mit 91 Oktan herumfahren. Allerdings ausserhalb der Spezifikation des Herstellers. Tankst Du jetzt nur noch 91 Oktan? Eben :)
Vielleicht solltest Du zuerst die Basics von Solaris verstehen bevor Du Dich in die tiefen Abgründe des Systems hinunterwagen willst.
Gruss
Dominik
-
Hallo zusammen,
finde das Thema total spannend und habe mich gewundert das niemand ein RAID 1 über den Internen Controller aufsetzten konnte.
Meiner Meinung nach sollte dies gehen.
boote ab CD-ROM oder Netz ins Single-User mode
# raidctl -c <disk1> <disk2>
# format
wähle dein neues Volume aus und mach ein lable drüber.
Was ich noch wissen müsste ist welche Solaris Version das du im einsatz hast, Solaris 10 U4 müsste danach problemlos zu installieren sein über den HW Raid....
Ich verstehe ja nich viel von Oracle und so aber für was genau brauchst du so viele slices?????
kannst du nicht einfach diese pfäde db1 db2 als Verzeichniss anlegen und fertig?????
-
# raidctl -c <disk1> <disk2>
# format
Gilt das auch für eine V215 ?
Gruß Tschokko
-
Hallo beta17,
danke für deinen beitrag.
Wie meinst du das
boote ab CD-ROM oder Netz ins Single-User mode
Ich kann nur von der Solaris CD Booten und da kommt dann schon gleich die Installation von Solaris.
Ich komme ja schon gar nicht in den consolen modus # um das Kommando
# raidctl -c <disk1> <disk2>
# format
abzusetzten, erst nach der Solaris Installation und dann sind ja schon die Slices eingehangen.
@Tschokko
Danke für den Tip, vielleicht mach ich es so, wenn der gerade o.g. weg doch nicht funktioniert.
Das mit den zwei weiteren Platten geht nicht, ich habe nur noch einen V245 Server mit zwei weiteren platten, der als Backup genau so aufgebaut werden soll.
Mehr als zwei platten pro Server habe ich einfach nicht.
Grüße
-
Ich kann nur von der Solaris CD Booten und da kommt dann schon gleich die Installation von Solaris.
Ich komme ja schon gar nicht in den consolen modus # um das Kommando
# raidctl -c <disk1> <disk2>
# format
abzusetzten, erst nach der Solaris Installation und dann sind ja schon die Slices eingehangen.
boot cdrom -s
im OBP, danach bist du im Single User-Modus.
-
deine 245 hat ein ServiceProcesser (ALOM)
darauf kannst dein System Seriel (RJ45) oder auch über Netzwerk, nachdem du Seriel das MGT Interface konfiguriert hast, administrieren.
von da aus kommst du ins OBP wo du dan ein boot cdrom -s eingeben kannst.
aber das solltest du wissens sonst könntest du ja nicht von einer CD booten.
wenn du dan im Single-User mode gebootetst hast kanst du dir mit format deine Disks einzeigen lassen um nachzuprüfen ob Solaris sie überhaupt sehen kann...
mich würde wunder nehmen welches Solaris du verwendest, evtl könnte eine Installation, nachdem du ein RAID aufgesetzt hast, nicht funktioniren...
-
hallo, ich benutzte Solaris 10 11/06.
-
hm, dies ist Update 3...
wenn möglich versuchs mit Upate 4 fals du die variante mit hw raid aufbaust..
-
@beta17
Kann ich nicht, das wird von der Management Plattform die später Installiert werden soll nicht supportet, deswegen muss ich die Soli Version nutzten und weitere Patches einspielen.
Warum sollte die Solaris Installation nicht klappen?
Schon mal mit Update 3 und Hw RAID probiert?
Ich werde es einfach dann testen, damit ich mal weiter kommen, entweder es geht oder halt nicht.
@paraglider242
Dein Tip war gold wert, endlich baut er mir ein Hardware RAID, was solides :D
Grüße
-
Kann ich nun eigentlich mit der Solaris Installation beginnen, solange er noch im Status RESYNCING ist oder sollte man dann keine Daten auf das RAID schreiben?
# raidctl
RAID Volume RAID RAID Disk
Volume Type Status Disk Status
------------------------------------------------------
c1t0d0 IM RESYNCING c1t0d0 OK
c1t1d0 OK
-
Ich verstehe ja nich viel von Oracle und so aber für was genau brauchst du so viele slices?????
kannst du nicht einfach diese pfäde db1 db2 als Verzeichniss anlegen und fertig?????
Ich bin selbst kein DBA, aber ein Grund (der Grund?) eine Oracle-Datenbank aufzuteilen ist die Performance. Wie Tschokko schon geschrieben hat macht das aber auf der Systemplatte wenig Sinn.
Überhaupt die Datenbank auf nur einer Platte in mehrere Slices zu verteilen eigentlich auch nicht, zumindest was die Geschwindigkeit angeht. Wenn die Datenbank nicht auf dem Dateisystem liegt sondern direkt auf dem Raw Device könnte ich es noch verstehen. Für die gewünschte Struktur (Tablespaces usw.) sind dann einfach eine bestimmte Anzahl Raw Devices nötig. Ansonsten reicht es ja auf einem Slice einfach die entsprechende Anzahl Verzeichnisse anzulegen.
-
@beta17,
ich weis, die Konstellation ist nicht optimal und man sollte die db Verzeichnisse aufteilen auf verschiedene Platten und Controller, aber die habe ich nun leider nicht und muss damit leben, was ich habe.
Ich habe 2x SUN Fire V245 mit 2x 75Gig SAS Platten pro Server.
Beide Server sollen gleich aufgesetzt werden und mit RAID 1 gespiegelt werden.
Mir würde auch besser gefallen, die Management Platform auf den einen Server und die bd auf den anderen Server zu Installieren.
Aber das geht nicht, da ich z.Z. nur einen Server habe und der nächste Woche in Produktiv einsatz gehen soll.
Wenn dann halt ein Server kaputt geht, wird halt der andere genommen und die DB zurückgespielt.
Also nur ein Single Point of Failture anstatt ein Multipoint.
Der RESYNCING Vorgang läuft jetzt schon ca 3h, ist das bei 2x 75 Gig Platten normal?
-
Ohh kaum poste ich das der RESYNCING Vorgang schon 3h dauert, schon ist er fertig.
# raidctl
RAID Volume RAID RAID Disk
Volume Type Status Disk Status
------------------------------------------------------
c1t0d0 IM OK c1t0d0 OK
c1t1d0 OK
#
Ich habe mir nun überlegt logische Partitionen für root, & swap anzulegen und die anderen über metainit [soft-partition] -p [component] [size]
anzulegen.
Da ich hier alle Partitionen wie für die Management Plattform vorgeschlagen anlegen kann und nicht begrenzt bin. (Siehe Attached Picture)
Ist dies so ratsamt?
Brauche ich für Softslices eigentlich auch eine metadb in einer ungenutzten Partition?
Sicher wenn ich metainit nutze?!
-
Warum auch immer der CTM Server soviele Partitionen braucht, aber wenn er darauf besteht, dann würd ich das machen. ;) Allerdings mit einer kleinen Änderung !
Slice 3 -> Partition für /oracle
Slice 4 -> Partition für die /db01-05 + ctm_backup soft partitions
Dann sieht das doch schon mal ganz gut aus. :)
Gruß Tschokko
-
Hi Tschokko,
habe es nun über den Installer so Partitioniert
─ Festplatte anpassen: c1t0d0 ──────────────────────────────────────────────────
Boot-Gerät : c1t0d0s0
EINTRAG: Empfohlen: MB Minimum: MB
================================================================================
Slice Einhängepunkt Größe (MB)
0 / 11264
1 swap 6144
2 0
3 /oracle 25613
4 /ctm_backup 25613
5 0
6 0
7 0
================================================================================
Kapazität: 69628 MB
Allokiert: 68634 MB
Rundungsfehler : 2 MB
Frei: 992 MB
kann dies aber später auch nochmal ändern.
Die CTM Backup Partition muss genau so groß sein wie die /oracle, /db01, /db02, /db03, /db04, und /db05, da dort alle diese parts nochmal gebackupt werden.
Ich mach halt jetzt alles was mit Oracle zu tun hat in eine logische Partition und haue die db's in die SoftPartitions.
Überlege aber noch ob ich nicht gleich ZFS mache, wobei sich da bei mir noch nicht so ganz die Vor und Nachteile zur Softpartition erschließen.
Grüße
-
bin mir eben nicht sicher ab welchem Upate der Controller während der installation erkannt wird. am besten ist es wens du einfach mal versuchst!! :-)
ich bin mir bei Softpartitions nicht ganz sicher ob du für die metadb's einen separaten sliche machen musst... (bei einem RAID5 kannst du die metadbs auch im selben slice rein legen). aber ich mache aus prinzip immer 50mb auf Slice 7...
ich such mal weiter nach infos...
-
Hallo, Solaris Installation 10.5 06/11 hat geklappt mit Hw RAID 1 Mirror.
Bei der Installation kam zwar ein Fehler
internal error: Bad file number
svc:/system/filesystem/local:default: WARNING: /usr/sbin/zfs mount -a failed: exit status 134
Apr 16 13:36:58 svc.startd[7]: svc:/system/filesystem/local:default: Method "/lib/svc/method/fs-local" failed with exit status 95.
Apr 16 13:36:58 svc.startd[7]: system/filesystem/local:default failed fatally: transitioned to maintenance (see 'svcs -xv' for details)
Aber die Intallation ging weiter und nun ist es drauf.
Weis aber nicht ob dieser Fehler ohne RAID auch schon kam.
Jetzt muss ich mich bloß noch entscheiden ob Softpartition oder ZFS.
Muss aber dazu mal noch was lesen.
Was würdet ihr empfehlen und warum?
-
Ach sagt mal, muss die Slice 2, die ja laut Dominik für das Solaris frei bleiben soll einen Einhängepunkt und ein Filesystem haben oder reicht das so wie oben angegeben?
-
Ach sagt mal, muss die Slice 2, die ja laut Dominik für das Solaris frei bleiben soll einen Einhängepunkt und ein Filesystem haben oder reicht das so wie oben angegeben?
Das ist nicht laut mir so, sondern gemäss Sun. Kannst Du in jeder Dokumentation nachlesen. Und zu Deiner Frage: Nein, Slice 2 braucht natürlich keinen Mountpoint.
Gruss
Dominik
-
@dominik,
haste zufällig mal einen Link bei SUN wo das steht.
Nur interessehalber :P.
-
haste zufällig mal einen Link bei SUN wo das steht.
Nur interessehalber :P.
Hast Du keinen internetfähigen Rechner oder Internetzugang ? :P
Versuch´s mal mit Google - da bekommt man einiges zu dem Thema.
Gruss
Jürgen
-
Slice 2 Representiert die gesamte Festplatte und darf NICHT benutzt werden, das es einfach mal klar ist!!! :-D
ZFS währe natürlich auch eine Lösung.
Fals du genügend zeit hast könntest du ja mal ein Performance test machen!!
Mein Fileserver habe ich auch ein RAIDZ mit ZFS aufgebaut und bin sehr zufreiden damit!!
http://opensolaris.org/os/community/zfs/demos/basics/
http://opensolaris.org/os/community/zfs/intro/
Du kannst ZFS auch über Files machen anstatt über Disks, nur so zur Info!
-
also habs bei mir schnell aufgesetzt und dies würde dan so ausehen!!
mkdir -p /export/zfs
cd /export/zfs
mkfile 100m test1 -> dieses habe ich 7 mal erstellt test2, test3, test4, test5, test6, test7
zpool create db01 /export/zfs/test1
zpool create db02 /export/zfs/test2
zpool create db03 /export/zfs/test3
zpool create db04 /export/zfs/test4
zpool create db05 /export/zfs/test5
zpool create ctmbackup /export/zfs/test6
zpool create oracle /export/zfs/test7
*************************************
das ganze sieht nun so aus:
zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
ctmbackup 95.5M 89K 95.4M 0% ONLINE -
db01 95.5M 89K 95.4M 0% ONLINE -
db02 95.5M 89K 95.4M 0% ONLINE -
db03 95.5M 89K 95.4M 0% ONLINE -
db04 95.5M 89K 95.4M 0% ONLINE -
db05 95.5M 89K 95.4M 0% ONLINE -
oracle 95.5M 89K 95.4M 0% ONLINE -
***************************************
die zpool's werden beim erstellen auch gleich gemountet und sieht dann so au:
df -h
Filesystem size used avail capacity Mounted on
/dev/md/dsk/d0 63G 13G 49G 21% /
/devices 0K 0K 0K 0% /devices
ctfs 0K 0K 0K 0% /system/contract
proc 0K 0K 0K 0% /proc
mnttab 0K 0K 0K 0% /etc/mnttab
swap 4.3G 892K 4.3G 1% /etc/svc/volatile
objfs 0K 0K 0K 0% /system/object
/usr/lib/libc/libc_hwcap2.so.1
63G 13G 49G 21% /lib/libc.so.1
fd 0K 0K 0K 0% /dev/fd
swap 4.3G 10.0M 4.3G 1% /tmp
swap 4.3G 28K 4.3G 1% /var/run
db01 64M 24K 63M 1% /db01
db02 64M 24K 63M 1% /db02
db03 64M 24K 63M 1% /db03
db04 64M 24K 63M 1% /db04
db05 64M 24K 63M 1% /db05
ctmbackup 64M 24K 63M 1% /ctmbackup
oracle 64M 24K 63M 1% /oracle
weiss nicht ob dies eine Lösung für dich ist, aber versuchen kannst es ja mal!
-
So, ich klinke mich hier jetzt aus der Diskussion aus. Ich mag weder gratis Support für kommerzielle Unternehmen machen noch andauernd auf Fragen eingehen, welche man mit etwas Eigeninitiative selbständig beantworten könnte.
Gruss
Dominik
-
Hallo,
ich hatte eigentlich schon eine etwas unfreundliche Antwort nach der Frage bezüglich des Booten von CD bzw. Netzwerk in den Single-User-Mode verfaßt, dann war aber beta17 mit seiner geduldigen Antwort schneller. Nun kamen die Sache mit Slice 2 und der Frage nach einem direkten Link zum Dokument.
Mich wundert sowieso warum dir so bereitwillig und mit extremem Zeitaufwand geholfen wird.
Der Punkt, an dem sich die Leute von dir ausgenutzt fühlen, ist jetzt erreicht.
Investiere bitte deine eigene (Arbeits-)Zeit und beanspruche nicht unsere Freizeit oder die in der wir unsere Brötchen verdienen sollten.
Michael
-
Danke Michael
werde mich ab jetzt auch daraus halten.
Tips hat er zu genügend bekommen und sollte nun realisierbar sein.
@aecp
Wünsch dir noch viel Erfolg mit der V245
gruss an allen...
-
Ich fand es wirklich super wie ausführlich du das Vorgehen beschrieben hat. Über google wird dieser Beitrag bestimmt oft gefunden.
Michael
-
@all
Möchte mich herzlich bedanken, bei allen die mir geholfen haben!
Ich bin dadurch echt weiter gekommen.
Ich wollte niemanden auf die Füsse treten mit meiner Fragerei.
Ihr habt recht, ich kann ja auch lesen und mir meine Antworten aus den docs holen.
Aber aller Anfang ist schwer und da hilft halt ein Board weiter.
Ich wollte niemanden Ausnutzen oder seine Freizeit stehlen, da wie schon am Anfang erwähnt die Antworten im Board auf Freiwilliger basis basieren.
Ich wollte nun dazu auch keinen zwingen.
Ich habe mich nun nach studieren der docs ;D für das ZFS (http://docs.sun.com/app/docs/doc/819-5461/setup-1?a=view) entschieden, da es einfach zu Integrieren und Aufzusetzen ist. Desweiteren hat es entschiedene Vorteile gegenüber Softpartitions (http://docs.sun.com/app/docs/doc/816-4520/about-softpart-1?a=view) o.ä.
Ich habe dies auch schon selbstständig aufgesetzt und es läuft. :-*
Nun habe ich allerdings Probleme mit dem Patchen der Solaris 10 6/11 Version, vielleicht hat es was mit dem Hw RAID zu tun.
Ich versuche nun mal die Solaris Version 10 8/07 und hoffe, das sich da die nötigen Patches integrieren lassen.
Ist aber nich euer Problem ::)
Also THX at all
-
ZFS auf Dateibasis ernsthaft nutzen? Hmmm... also da muss ich ja mal schwer räuspern. Das mag für Experiemente mit ZFS allemal genügen, aber sowas produktiv nutzen? Vor allem muss man dann auch bei der Datensicherung darauf achten, das man nicht doppelt sichert. Denn die Dateien worauf ZFS seinen Pool aufsetzt, als auch die ZFS Dateisysteme selbst, sind im Dateisystem eingehängt. Also ich finds Quatsch ! Eher könnte ich verstehen wenn man auf einer freien Slice ein ZFS Dateisystem erstellt, aber damit hatte ich mal vor langer Zeit viel Ärger und hab es seither gelassen.
Ich bleib dabei ! Der V245 kann man 4 Platten spendieren, zwei fürs System mit nem richtig schön großen Swap Slice (>8GB) und die zwei anderen als ZFS Mirror für die Anwendung. Mal abgesehen davon das die Kosten für zwei weitere SUN 72GB SAS Platten für eine Firma nicht wirklich nennenswert sind. ;)
Gruß Tschokko