Koozali.org: home of the SME Server
Other Languages => Deutsch => Topic started by: PatchPanel on June 20, 2008, 04:06:45 PM
-
Hallo,
ich habe versucht (gem. Anleitung) mein RAID1 mit 2 Platten von 250GB auf 500GB zu vergrössern, aber es klappt nicht :(
Eine 250GB Platte raus, ganz neue 500GB rein, reboot und
in der Server-Konsole Punkt 5 steht dann
Aktueller RAID-Status:
Personalities : [raid1]
md2 : active raid1 sda2[0]
245007232 blocks [2/1] [U_]
md1 : active raid1 sda1[0]
104320 blocks [2/1] [U_]
unused devices: <none>
Der freie Festplattenspeicher muss gleich groß sein.
Der manuelle Eingriff könnte erforderlich sein.
Aktueller Festplattenstatus:
Installierte Festplatten: sdc sda sdb
Verwendete Festplatten: sda
(sdc ist eine Backupplatte)
Ich habe auch mit fdisk rummanipuliert, vergeblich.
fdisk -l zeigt jetzt folgendes
Platte /dev/sda: 251.0 GByte, 251000193024 Byte
255 Köpfe, 63 Sektoren/Spuren, 30515 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 fd Linux raid autodetect
/dev/sda2 14 30515 245007315 fd Linux raid autodetect
Platte /dev/sdb: 500.1 GByte, 500107862016 Byte
255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sdb1 1 13 104391 fd Linux raid autodetect
/dev/sdb2 14 60801 488279610 fd Linux raid autodetect
:?
Weiß jemand Rat ?
Gruß
PatchPanel
-
Durch die unterschiedliche größe der Platten, mußt Du Hand anlegen.
Zum Verständnis der Plattenbezeichnungen.
Plattenbezeichnug:
IDE 0 Master hda1
IDE 0 Slave hdb1
IDE 1 Master hdc1
IDE 1 Slave hdd1
Um die Platte wieder in das Array aufzunehmen folgenden Befehl eingeben.
mdadm --manage /dev/md1 --add /dev/hdc1
mdadm --manage /dev/md2 --add /dev/hdc2
So wird Partion 1 und 2 der IDE 1 Master Platte wieder eingehängt und ein Rebuild gestartet.
Bei IDE 0 Master Platte würden die Befehle so aussehen:
mdadm --manage /dev/md1 --add /dev/hda1
mdadm --manage /dev/md2 --add /dev/hda2
md1 und md2 sind die Array Namen.
Das machst Du nach dem Rebuild auch mit der anderen kleinen Platte. Immer darauf achten was an welchem IDE Bus hängt und ob als Master oder Slave.
yythoss
-
:-)
Für mich -da SATA-Platten- sdb1/2...
und
Personalities : [raid1]
md2 : active raid1 sda2[0] sdb2[2]
245007232 blocks [2/1] [U_]
[>....................] recovery = 0.1% (336512/245007232) finish=8507.7min speed=478K/sec
md1 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
Die RAID-Resynchronisation wird gerade durchgeführt.
Danke !
Gruß
PatchPanel
-
Nach der erfolgreichen Resynchronisierung habe ich die verbliebende 250GB Platte ebenfalls getauscht,
aber das System bootet gar nicht mehr :-?
Auch mit nur der 500GB Platte alleine fährt das System nicht hoch.
Muss man noch etwas einstellen/beachten ?
Gruß
PatchPanel
-
Die Gesammtgröße des verfügbaren Speicherplatzes sollte dann 250GB sein, oder irre ich da?
-
Die Gesammtgröße des verfügbaren Speicherplatzes sollte dann 250GB sein, oder irre ich da?
Nein, zumindest nicht, solange noch die eine 250er drin ist.
fdisk -l zeigt jetzt:
Platte /dev/sda: 251.0 GByte, 251000193024 Byte
255 Köpfe, 63 Sektoren/Spuren, 30515 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 fd Linux raid autodetect
/dev/sda2 14 30515 245007315 fd Linux raid autodetect
Platte /dev/sdb: 500.1 GByte, 500107862016 Byte
255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 fd Linux raid autodetect
/dev/sdb2 14 60801 488279610 fd Linux raid autodetect
Bei sdb war das Boot-Flag noch nicht gesetzt, aber die Platte bootet immer noch nicht.
Irgendwas fehlt noch :???:
Gruß
PatchPanel
-
Als ich meine Platten vergrößert habe bin ich folgedermaßen vorgegangen:
1. Alte Platte vom IDE 1 Master ausgebaut.
2. Neue groß Platte an IDE 1 Master rein und ins Raid aufgenommen.
3. Alle alten Platen raus
4. Die neue gespeigelte Platte von IDE 1 Master auf IDE 0 Master gesteckt und gebootet
5. Zweite neue große Platte an IDE 1 Master gesteckt und ins Raid aufgenommen.
Fertig.
So läuft der Rechner heute noch.
yythoss
-
1. SATA2 (meine Bezeichnung; Channel3 im BIOS) entfernt und daran die neue Platte gehängt.
2. letztlich (scheinbar) alles OK; siehe oben
3. SATA1 (meine Bezeichnung; Channel2 im BIOS) entfernt und zweite neue Platte gehängt.
4. System bootet nicht, siehe oben.
Das fehlende Boot-Flag ist mir erst nach der Synchronisierung aufgefallen, könnte es daran liegen ?
In GParted sehen beide Platten (bis auf die Größe natürlich) gleich aus.
Bei mir ist MD1 (schon ?) zu 78% ausgelastet, kann/sollte man die Größe ändern ?
Geht das ohne Schaden am RAID anzurichten z. B. mit GParted ?
Hat da jemand Erfahrungswerte ?
Gruß
PatchPanel
-
Ich würde sagen, Du mußt im Bios einstellen, dass es von neu synchonisierten Platte booten soll.
yythoss
-
OK, ich habe keine Ahnung von Linux, aber der Gedanke war mir schon gekommen... 8)
die Boot-Reihenfolge ist angepasst.
Gruß
PatchPanel
-
Dann hat das synchronisieren nicht geklappt, denn beide Platte sind ja danach gleich.
So kann jede Platte zum Booten eingesetzt werden!
yythoss
-
Dann hat das synchronisieren nicht geklappt
Die Anzeige in der Server-Konsole und die raidmonitor-emails sagten das alles OK ist.
So kann jede Platte zum Booten eingesetzt werden
Hier mit SATA und in dieser Konstellation bleibt es dabei, die zweite Platte wird nicht bootfähig.
Hast Du Dein RAID mal wechselseitig mit nur einer Platte gebootet ? :|
Ich habe dann noch mit HD Clone (sektorweises klonen) die 250GB auf die 500GB Platte geklont, damit wurde die 500er bootfähig.
Dann die zweite 500er dazu und dann dasselbe Spiel wie oben von vorne...
Gruß
PatchPanel
-
Ich habe dann noch mit HD Clone (sektorweises klonen) die 250GB auf die 500GB Platte geklont, damit wurde die 500er bootfähig.
Dann die zweite 500er dazu und dann dasselbe Spiel wie oben von vorne...
Ist es ein neue Platte oder hast du die Platte schon vorher benutzt, mit zum Beispiel ein Windows System? Als das so ist schau dann dieses Mahl an: http://wiki.contribs.org/Raid#Reusing_Hard_Drives
-
Hi,
es waren neue, unbenutzte Platten.
Mit HD Clone hat es jetzt funktioniert.
Beide 500er sind bootfähig und alle Nachrichten und Fenster sagen es sei alles OK...
Folgende Probleme/Fragen tauchen jetzt noch auf:
1) Boote ich nur mit einer Platte des RAIDs wird die dritte separate Platte sdc angemeckert
(fehlender Superblock u.ä.).
Man hat die Wahl mit CTRL-D fortzufahren, was zu einem Reboot führt = Endlosschleife
oder das Root-Passwort einzugeben und etwas mit fsck oder so durchzuführen.
Was hat denn sdc mit dem RAID zu tun ? :???:
2) Bei mir ist MD1 (schon ?) zu 78% ausgelastet, kann/sollte man die Größe ändern ?
(Geht das ohne Schaden am RAID anzurichten z. B. mit GParted ?
Geht nicht, da s.o. GParted md2 nicht verändern kann um Platz für md1 zu schaffen.)
Wenn ja, wie ?
3) HD Clone hat die größere Platte gem. dem ursprünglichen Quelllaufwerk auf 250GB limitiert.
So klappt das vergrößern nach der Anleitung
mdadm --grow /dev/md2 --size=max
pvresize /dev/md2
lvresize -l +100%FREE main/root
ext2online -C0 /dev/main/root [is -C0 (zero)]
nicht und mit GParted zum Verändern komme ich nicht weiter, da md2 nur als unbekanntes
Dateisystem erkannt wird und es nix zu bearbeiten gibt.
Unter fdisk sieht das Ganze so aus:
Platte /dev/sda: 500.1 GByte, 500107862016 Byte
255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 fd Linux raid autodetect
/dev/sda2 14 30515 245007315 fd Linux raid autodetect
Platte /dev/sdb: 500.1 GByte, 500107862016 Byte
255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 fd Linux raid autodetect
/dev/sdb2 14 30515 245007315 fd Linux raid autodetect
Platte /dev/sdc: 320.0 GByte, 320072933376 Byte
255 Köpfe, 63 Sektoren/Spuren, 38913 Zylinder
Einheiten = Zylinder von 16065 * 512 = 8225280 Bytes
Gerät Boot Start End Blocks Id System
/dev/sdc1 1 38913 312568641 83 Linux
Platte /dev/md1: 106 MByte, 106823680 Byte
2 Köpfe, 4 Sektoren/Spuren, 26080 Zylinder
Einheiten = Zylinder von 8 * 512 = 4096 Bytes
Festplatte /dev/md1 enthält keine gültige Partitionstabelle
Platte /dev/md2: 250.8 GByte, 250887405568 Byte
2 Köpfe, 4 Sektoren/Spuren, 61251808 Zylinder
Einheiten = Zylinder von 8 * 512 = 4096 Bytes
Festplatte /dev/md2 enthält keine gültige Partitionstabelle
Platte /dev/dm-1: 2080 MByte, 2080374784 Byte
2 Köpfe, 4 Sektoren/Spuren, 507904 Zylinder
Einheiten = Zylinder von 8 * 512 = 4096 Bytes
Festplatte /dev/dm-1 enthält keine gültige Partitionstabelle
sda2 und sdb2 müssten als Endblöcke was von > 60TSD haben.
Idee wäre jetzt sdb2 mit fdisk zu vergrößern, RAID raus/rein usw., resync und ... :?:
Was meint ihr ?
(Ausser Server neu aufsetzen)
Gruß
PatchPanel
-
Folgendes habe ich gemacht:
sdb2 aus dem RAID genommen, da die Platte aktiv ist, gehts nicht sofort.
Setzt man sie erst auf "faulty" klappts.
[root@server02 ~]# mdadm --manage /dev/md2 --remove /dev/sdb2
mdadm: hot remove failed for /dev/sdb2: Device or resource busy
[root@server02 ~]# mdadm --manage /dev/md2 --fail /dev/sdb2
mdadm: set /dev/sdb2 faulty in /dev/md2
[root@server02 ~]# mdadm --manage /dev/md2 --remove /dev/sdb2
mdadm: hot removed /dev/sdb2
Dann mit fdisk sdb2 gelöscht und neu erstellt mit der Max-Größe.
Neustart erforderlich.
Resultat nach Neustart
[root@server02 ~]# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sda2[0]
245007232 blocks [2/1] [U_]
md1 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
unused devices: <none>
Dann wieder
[root@server02 ~]# mdadm --manage /dev/md2 --add /dev/sdb2
mdadm: hot added /dev/sdb2
und
[root@server02 ~]# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sdb2[2] sda2[0]
245007232 blocks [2/1] [U_]
[=>...................] recovery = 6.4% (15764544/245007232) finish=56.6min speed=67456K/sec
md1 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
unused devices: <none>
Im Anschluß noch umgekehrt -
mal schauen, ob das klappt... :roll:
Gruß
PatchPanel
-
Was macht ihr euch alles für Arbeit?
Meine Meinung, wenn nicht Hardware Raid, dann gibt es doch sowieso mehr Probleme mit Softraid als Nutzen, da doch dann lieber den sme mit 'sme noraid' installieren und so kann man die Platten auch mit Tools wie TrueImage einfach Klonen und hat mehr Zeit für wirklich wichtige Dinge :)
Für SOHO Server dürfte das Verfahren auf alle Fälle aureichend sein, und bei Heavy Weight Servern wäre Softraid eh ein Kopfschuss :)
Es scheint aber da SME Softraid per Default macht, wird eine Aufwand - Nutzen Rechnung erst garnicht angestellt :(
Kleines Fallbeispiel wie man etwas einfach machen kann:
Ein SATA Anschluss per Adapterblende aus den Gehäuse geführt, schnell von TrueImage gebootet, 250 GB Platte in ca. 10 Minuten komplett auf Externe 1TB Sata Platte geklont, Externe Platte mit Interner tauschen und voila, man hat einen größere Platte und noch eine kleinere Platte mit einer gerade aktueller Komplettsicherung und die ist auch noch sofort bootbar.
Maximale Ausfallzeit des Servers dabei 2 Stunden, und nun sagt mir ob ihr mit euren 'Raidreparaturekünsten' da auch so schnell fertig seit?
PS: funktioniert meißt auch mit einem schon zerschossenen Dateisystem, dann kann man die aktive Platte 'mit heißer Nadel' schnell reparieren und die Sicherung davon in Ruhe in einem anderen Rechner 'sauber' reparieren, was will man mehr?
-
:-D
Sieht doch OK aus ?
[root@server02 ~]# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sda2[0] sdb2[1]
488279488 blocks [2/2] [UU]
md1 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
unused devices: <none>
Wenn jetzt noch der Mecker von Cron Daemon aufhören würde...
ALARM! RAID configuration problem
Current configuration is:
Personalities : [raid1]
md2 : active raid1 sda2[0] sdb2[1]
488279488 blocks [2/2] [UU]
md1 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
unused devices: <none>
Last known good configuration was:
Personalities : [raid1]
md2 : active raid1 sda2[0] sdb2[1]
245007232 blocks [2/2] [UU]
md1 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
unused devices: <none>
Wie bekommt man den weg ?
Gruß
PatchPanel
-
Das sollte mit diesem Befehl erledigt werden:
raidmonitor -iv
yythoss
-
Funktioniert, danke.
Gruß
PatchPanel