Koozali.org: home of the SME Server

Other Languages => Français => Topic started by: gieres on January 04, 2016, 06:45:46 AM

Title: RAID1 dégradé ?
Post by: gieres on January 04, 2016, 06:45:46 AM
Bonjour,

Et bonne année à tous !

En jetant un coup d’œil sur le serveur :
Code: [Select]
[root@sme ~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]
     
md2 : active raid1 sdb2[2](S) sda2[0]
      976655552 blocks [2/1] [U_]
     
unused devices: <none>

sdb2 ne semble plus fonctionner. Noter le (S) après sdb2 sur la ligne md2 (?)

Quelques autres détails :
Code: [Select]
[root@sme ~]# mdadm --detail /dev/md2
/dev/md2:
        Version : 0.90
  Creation Time : Sat Aug  8 15:47:41 2009
     Raid Level : raid1
     Array Size : 976655552 (931.41 GiB 1000.10 GB)
  Used Dev Size : 976655552 (931.41 GiB 1000.10 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Mon Jan  4 06:27:39 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1

           UUID : a3ec4516:feb59363:f1fa9aa4:8b059647
         Events : 0.47145072

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       0        0        1      removed

       2       8       18        -      spare   /dev/sdb2
Là, on comprend mieux le S puisqu'il est écrit "Spare Devices : 1" mais pourquoi ?
Autres infos :
Code: [Select]
[root@sme ~]# lvdisplay
  --- Logical volume ---
  LV Name                /dev/main/root
  VG Name                main
  LV UUID                sLqQwl-UMsq-XjTu-zbCe-q2JE-0Irr-pIwni5
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                929,47 GB
  Current LE             29743
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
   
  --- Logical volume ---
  LV Name                /dev/main/swap
  VG Name                main
  LV UUID                lgdgLQ-DMLk-gpfe-FAHx-JVrh-5n32-o8p6zr
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                1,94 GB
  Current LE             62
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1
Mais cela ne semble pas apporter d'infos supplémentaire.
Pour régler ce problème que je pensais être un bête problème de disque dur qui avait lâché, j'avais arrêté le serveur, l'avais redémarré sur un seul disque pour qu'il enregistre le RAID1 dégradé, remis un nouveau disque à la place du sdb et relancé le RAID1 à partir de la console.
La synchronisation de md1 et md2 s'est bien passée SAUF que dans les messages à l'admin, tous les 20 % de la capacité resynchronisé, on est passé de 60 % à complètement resynchronisé... Donc j'ai retiré ce disque et remis celui d'origine. Itou.

Autre tentative :
Code: [Select]
mdadm --set-faulty /dev/md2 /dev/sdb2
mdadm --remove /dev/md2 /dev/sdb2
mdadm --add /dev/md2 /dev/sdb2
Pas mieux.

Je me demande s'il n'y aurait pas eu un oubli d'augmentation de la taille du RAID1 lorsque les disques ont été passés de 750 Go à 1 To. Mais :
Code: [Select]
[root@sme ~]# df -h
Sys. de fich.         Tail. Occ. Disp. %Occ. Mont� sur
/dev/mapper/main-root
                      915G  687G  182G  80% /
/dev/md1               99M   26M   68M  28% /boot
none                 1010M     0 1010M   0% /dev/shm
semble indiquer que la partition a bien été étendue (?) au maximum.

Merci d'avance pour vos lumières.
Title: Re: RAID1 dégradé ?
Post by: gieres on May 08, 2016, 10:40:31 PM
Bonsoir,

Le problème a perduré jusqu'à aujourd'hui. Et aujourd'hui, à la suite d'une énième resynchronisation, les messages 20, 40, 60, 80 et complètement resynchronisé sont tous arrivés.

Et
Code: [Select]
cat /etc/mdstat
donne enfin :
Code: [Select]
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]
     
md2 : active raid1 sdb2[1] sda2[0]
      976655552 blocks [2/2] [UU]
     
unused devices: <none>

Ça rassure... mais ça n'explique pas le souci. Bon, il n'y a pas eu de plantage pendant 4 mois mais ça pèse ! Pour ceux qui auraient une petite idée, vendredi après-midi, on a eu un très gros ralentissement du serveur pendant 2 ou 3 heures alors même que le pourcentage d'occupation du processeur était normal. Incapable de voir d'où ça venait. J'ai pensé à l'alim et ce soir je l'ai changée. A mon avis, le serveur n'a pas apprécié que nous ne fassions pas le pont.

Bonne semaine.