Koozali.org: home of the SME Server
Other Languages => Français => Topic started by: gieres on January 04, 2016, 06:45:46 AM
-
Bonjour,
Et bonne année à tous !
En jetant un coup d’œil sur le serveur :
[root@sme ~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
104320 blocks [2/2] [UU]
md2 : active raid1 sdb2[2](S) sda2[0]
976655552 blocks [2/1] [U_]
unused devices: <none>
sdb2 ne semble plus fonctionner. Noter le (S) après sdb2 sur la ligne md2 (?)
Quelques autres détails :
[root@sme ~]# mdadm --detail /dev/md2
/dev/md2:
Version : 0.90
Creation Time : Sat Aug 8 15:47:41 2009
Raid Level : raid1
Array Size : 976655552 (931.41 GiB 1000.10 GB)
Used Dev Size : 976655552 (931.41 GiB 1000.10 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Mon Jan 4 06:27:39 2016
State : clean, degraded
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
UUID : a3ec4516:feb59363:f1fa9aa4:8b059647
Events : 0.47145072
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 0 0 1 removed
2 8 18 - spare /dev/sdb2
Là, on comprend mieux le S puisqu'il est écrit "Spare Devices : 1" mais pourquoi ?
Autres infos :
[root@sme ~]# lvdisplay
--- Logical volume ---
LV Name /dev/main/root
VG Name main
LV UUID sLqQwl-UMsq-XjTu-zbCe-q2JE-0Irr-pIwni5
LV Write Access read/write
LV Status available
# open 1
LV Size 929,47 GB
Current LE 29743
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Logical volume ---
LV Name /dev/main/swap
VG Name main
LV UUID lgdgLQ-DMLk-gpfe-FAHx-JVrh-5n32-o8p6zr
LV Write Access read/write
LV Status available
# open 1
LV Size 1,94 GB
Current LE 62
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:1
Mais cela ne semble pas apporter d'infos supplémentaire.
Pour régler ce problème que je pensais être un bête problème de disque dur qui avait lâché, j'avais arrêté le serveur, l'avais redémarré sur un seul disque pour qu'il enregistre le RAID1 dégradé, remis un nouveau disque à la place du sdb et relancé le RAID1 à partir de la console.
La synchronisation de md1 et md2 s'est bien passée SAUF que dans les messages à l'admin, tous les 20 % de la capacité resynchronisé, on est passé de 60 % à complètement resynchronisé... Donc j'ai retiré ce disque et remis celui d'origine. Itou.
Autre tentative :
mdadm --set-faulty /dev/md2 /dev/sdb2
mdadm --remove /dev/md2 /dev/sdb2
mdadm --add /dev/md2 /dev/sdb2
Pas mieux.
Je me demande s'il n'y aurait pas eu un oubli d'augmentation de la taille du RAID1 lorsque les disques ont été passés de 750 Go à 1 To. Mais :
[root@sme ~]# df -h
Sys. de fich. Tail. Occ. Disp. %Occ. Mont� sur
/dev/mapper/main-root
915G 687G 182G 80% /
/dev/md1 99M 26M 68M 28% /boot
none 1010M 0 1010M 0% /dev/shm
semble indiquer que la partition a bien été étendue (?) au maximum.
Merci d'avance pour vos lumières.
-
Bonsoir,
Le problème a perduré jusqu'à aujourd'hui. Et aujourd'hui, à la suite d'une énième resynchronisation, les messages 20, 40, 60, 80 et complètement resynchronisé sont tous arrivés.
Et
cat /etc/mdstat
donne enfin :
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
104320 blocks [2/2] [UU]
md2 : active raid1 sdb2[1] sda2[0]
976655552 blocks [2/2] [UU]
unused devices: <none>
Ça rassure... mais ça n'explique pas le souci. Bon, il n'y a pas eu de plantage pendant 4 mois mais ça pèse ! Pour ceux qui auraient une petite idée, vendredi après-midi, on a eu un très gros ralentissement du serveur pendant 2 ou 3 heures alors même que le pourcentage d'occupation du processeur était normal. Incapable de voir d'où ça venait. J'ai pensé à l'alim et ce soir je l'ai changée. A mon avis, le serveur n'a pas apprécié que nous ne fassions pas le pont.
Bonne semaine.