PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Software Raid 5 mit 4 Platten



Henne
23.02.06, 16:11
Hallo Jungs,
ich bräuchte mal eure Erfahrungen bezüglich Software Raid 5 ohne jegliche zusätzliche ide Controller.
Ich habe vor 4x 160GB in einem Software Raid 5 laufen zu lassen.
Dies bedeutet eine Installation ohne cd da alle 4 ide schnittstellen mit den Platten belegt sind.
Dies bedeutet weiterhin ein Booten vom Raid 5.
Eine Installation mit booten von Diskette und Netzinstallation.
Da ich in einem Software Raid 5 keine weitere Partition erstellen kann muss ich auf allen Platten noch eine swap Partition anlegen und diese zusammenschließen?

Ein weiteren Hardware ide Controller muss ich aus Kostengründen ausschließen.
Die vorhandene Hardware besteht aus 800MHz Duron 512MB RAM, da es nur ein Netzwerk Fileserver ist brauche ich keine Höhstgeschwindigkeiten beim schreiben.

quinte17
23.02.06, 18:44
also du könntest schon eine installation von cd machen, die 4. festplatte brauchst du ja nicht gleich... syncen kann man auch später.
du musst halt das raid in der art anlegen:


mdadm --create /dev/md0 --level=raid5 --raid-devices=5 /dev/hda1 /dev/hdb1 /dev/hdc1 missing

nach der install und wenn alles funzt, dann einfach cd-laufwerk raus, 4. festplatte rein und


mdadm /dev/md0 -a /dev/hdd1

und der sync wird gestartet...
die anderen sachen die du vorhast, müssen nur gut geplant und durchdacht werden, dann ist das alles möglich.

greetz

Henne
23.02.06, 19:43
super Idee darauf bin ich nicht gekommen
ich möchte mir ein Debian Sarge draufpacken
kann ich deinen vorgeschlagenen Befehl schon vor der Installation absetzen und so das Basis System installieren?
ich kenne bis jetzt nur die Menüführung zur Paritionierung, da sehe ich nur keine Möglichkeit
Bezüglich der swap Partion sehe ich auch noch nicht ganz durch
kann ich einfach auf allen 4 Platten 100MB für swap partitionieren oder funktioniert das so nicht???

x86-64
23.02.06, 19:47
ja funtkionert mit dem swap auf die 4 platten verteilen - ist aber nicht sinnvoll besser auf das raid5 ein lvm drauf und dann kannst des ganznormal "partitionieren"

michih
27.02.06, 06:56
@x86-64
Swap auf ein Raid5 ist nicht sinnvoll, da Raid 5 nur wenig Performance-Vorteile bringt, sondern eher Sicherheit. Falls mehrere Swap-Partitionen in der fstab eingetragen sind, so macht der Kernel automatisch eine Art Raid-0 daraus.

Mfg Michi

HEMIcuda
27.02.06, 07:28
@x86-64
Swap auf ein Raid5 ist nicht sinnvoll, da Raid 5 nur wenig Performance-Vorteile bringt, sondern eher Sicherheit. Falls mehrere Swap-Partitionen in der fstab eingetragen sind, so macht der Kernel automatisch eine Art Raid-0 daraus.

Mfg Michi
Nein, macht er nicht. Standardmaessig werden die Swapspaces gestriped. Durch Angabe von pri=1 im Optionsfeld der fstab kann das Verhalten aber geaendert werden. Ansonsten muss ich darin uebereinstimmen, dass RAID5 auf Swap nicht wirklich sinnvoll ist.
Zum eigentlichen Problem: Es ist doch durchaus moeglich, verschiedene Partitionen auf verschiedenen Platten mit verschiedenen RAID-Levels zusammenzufassen oder gar keine RAID-Levels zu vergeben. Warum also nicht erst ein funktionierendes Grundsystem mit drei Platten aufbauen (ist da RAID5 unbedingt notwendig?) und dann, wenn die vierte Platte drinhaengt, die Datenarray erstellen? Habe ich das auch richtig verstanden, dass auf den vier Platten nur jeweils eine Datenpartition erstellt werden soll? Unguenstig, das/

'cuda

P.S.: Ich wuerde mir auch einen 08/15 PCI-IDE-Controller zulegen, da sich IDE-Platten, die an einem Kabel haengen, gegenseitig ausbremsen. Mit dem zusaetzlichen Controller ist dann auch das Problem mit dem CDROM behoben.

P.P.S.: Ich habe gehoert, dass Satzzeichen einen Text lesbarer und somit verstaendlicher machen.

Henne
05.03.06, 09:52
Ihr müßt davon ausgehen, daß ich ein möglichst stabiles System haben möchte. Dies bedeutet bei Ausfall einer Platte normaler Weiterbetrieb. Natürlich mit einer Art Benachrichtigung welche Platte ausgefallen ist.
Die für mich einfachste Variante wäre
raid 5 auf 4x 150GB als /
swap à 4x 250MB oder ähnlich
Ist dieses System bootfähig wenn er eine swap Partition durch den Ausfall einer Platte nicht mehr findet?

quinte17
05.03.06, 21:52
bootfähig ja, aber im laufenden betrieb könnte dies der tot des systems sein.
tu den swap auf ein raid 5 oder raid1 für mehr sicherheit

greetz

HEMIcuda
06.03.06, 05:49
Die für mich einfachste Variante wäre
raid 5 auf 4x 150GB als /
swap à 4x 250MB oder ähnlich
Die einfachste, aber bei weitem nicht die intelligenteste, ganz im Gegenteil.

'cuda

Henne
06.03.06, 07:27
Die einfachste, aber bei weitem nicht die intelligenteste, ganz im Gegenteil.
'cuda
In deinen vorherigen Thread habe ich leider keine intelligentere Variante rauslesen können. Warum ist eine Partition pro Platte nicht sinnvoll?

Da ich gestern angefangen habe hier mal der Zwischenstand.
Installation direkt auf dem raid 5 habe ich nicht hinbekommen.
4x 159GB /dev/hd*1 und 4x 250MB /dev/hd*2
auf /dev/hda2 habe ich das Debian Grundsystem installiert, passt gerade so drauf. Ansonsten sollen später die /dev/hd*2 als swap dienen.
Auf /dev/hd*1 habe ich mir das raid 5 vorgestellt.
Mit
mdadm --create /dev/md0 --level=raid5 --raid-devices=4 /dev/hd{a,b,c,d}1
hab ich das raid 5 angelegt.

Jetzt nochmal zu
Die einfachste, aber bei weitem nicht die intelligenteste, ganz im Gegenteil.
'cuda
Soll ich mehrere raid 5 anlegem à la
/dev/md0 /
/dev/md1 /home
/dev/md2 swap (hierzu würde ich mich evtl. hinreißen lassen da beim Plattenausfall alles einfach weiterläuft)
Jetzt habe ich folgendes Problem: wie bekomme ich mein System auf das raid 5 zum booten.
Grundidee war mount /dev/md0 /mnt/root
cp /Verzeichnisse /mnt/root/.
Lilo installieren vom raid 5 booten
siehe http://www.debianforum.de/wiki/?page=Debian+Softwareraid+raid1+inkl.+Root+und+Swa p
Dabei gibt es mehrere Problem:
lilo sagt mir das er vom sw raid 5 nicht booten kann, obwohl es funktionieren sollte.
siehe http://www.lug-in.de/doc/howto.php?howto=raid&link=usergroup#lilo
http://www.linuxhaven.de/dlhp/HOWTO/DE-Software-RAID-HOWTO-4.html
und im mbr steht immernoch der grub, lilo hat ihn noch nicht überschrieben
beim booten von /dev/hda2 konnte er das /dev/md0 nicht erkennen
erst mit

mdadm -As /dev/md0
mount /dev/md0 /mnt/root/
war das raid wieder ansprechbar

HEMIcuda
06.03.06, 11:27
Es gibt diverse Gruende, die fuer eine Partitionierung sprechen, u.a. strikte Trennung von Programmen und Daten (durch separates /home), Programme, Logs und temporaere Dateien, die einem / nicht vollmuellen koennen (/usr, /var, /tmp, letzteres u.U. sogar im RAM), Erstellung von RAID-Verbunden den Anspruechen und der Wichtigkeit/Zuverlaessigkeit entsprechend, etc, etc.
Uebrigens clever, dass Du je zwei Platten an einem Strang betreibst und damit einen Engpass erzeugst.

'cuda

Henne
06.03.06, 13:45
Kein Stress
Ich betreibe hier kein Echtzeit System
meine fstab

proc /proc proc defaults 0 0
/dev/md0 / ext3 defaults,errors=remount-ro 0 1
/dev/md1 /home ext3 defaults,errors=remount-ro 0 2
/dev/hdc1 none swap sw 0 0
/dev/hdd1 none swap sw 0 0

meine raids

Personalities : [raid1] [raid5]
md1 : active raid5 hdd2[4] hdc2[2] hdb2[1] hda2[0]
463009152 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
[==============>......] recovery = 72.7% (112227788/154336384) finish=24.0min speed=29208K/sec
md0 : active raid1 hda1[0] hdb1[1]
1951744 blocks [2/2] [UU]
... während der recovery natürlich auch beschreibbar