OVH Community, votre nouvel espace communautaire.

Raid1 3 disques => raid1 2 disques


bbr18
05/01/2015, 14h24
# on déclare /dev/sdc1 en erreur
Code:
mdadm --manage /dev/md1 --set-faulty /dev/sdc1
# on supprime /dev/sdc1
Code:
mdadm --manage /dev/md1 --remove /dev/sdc1
et pour l'autre raid, pareil mais avec /md5 et /sdc5

# on déclare /dev/sdc5 en erreur
Code:
mdadm --manage /dev/md5 --set-faulty /dev/sdc5
# on supprime /dev/sdc5
Code:
mdadm --manage /dev/md5 --remove /dev/sdc5
pour finir ensuite
Code:
mdadm --zero-superblock /dev/sdc1
mdadm --zero-superblock /dev/sdc5
mdadm --examine --scan

masterboy
05/01/2015, 14h17
Résolu par la commande suivante :

mdadm --grow --raid-devices=2 /dev/md5
J'étais persuadé, mais alors persuadé qu'avec grow on ne pouvait qu'ajouter des disques supplémentaire, et non en retirer (grow = grandir / croître en anglais, mauvais choix de mot clé).

masterboy
05/01/2015, 13h53
Bon j'ai reinstall une proxmox toute fraiche.

RAID 1 (3 disques) sur /dev/md5 composé de : sda5 / sdb5 / sdc5

J'ai tapé dans l'ordre les commandes suivante :

mdadm /dev/md5 --fail /dev/sdc5
mdadm /dev/md5 --remove /dev/sdc5
mdadm --zero-superblock /dev/sdc5
Un petit reboot et ...

md5 : active raid1 sda5[0] sdb5[1]
95686592 blocks [3/2] [UU_]
WTF ?!

Abazada
05/01/2015, 12h11
Citation Envoyé par masterboy
@Abazada : Je me suis déjà inspiré de ta manipulation, peux-tu me confirmer qu'après ces opérations tu as un raid sous cette forme :
Je confirme

Code:
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sda1[0] sdb1[1]
      5118912 blocks [2/2] [UU]

md2 : active raid1 sda2[0] sdb2[1]
      111571904 blocks [2/2] [UU]
... sachant que dans mon cas c'est le 3éme disque (sdc) que j'ai retire du Raid

masterboy
05/01/2015, 10h26
@hedii : C'est exactement la manip que j'ai faite, un fail + un remove du disque que je veux supprimer de la grappe RAID (souhaitant ainsi passer de 3 disques à 2 ). Malheureusement mon RAID est toujours sur 3 disques et m'affiche 1 disque en fail.

@Abazada : Je me suis déjà inspiré de ta manipulation, peux-tu me confirmer qu'après ces opérations tu as un raid sous cette forme :

md0 : active raid1 sdx0[0] sdx0[1]
111046592 blocks [2/2] [UU]

Abazada
05/01/2015, 09h24
J'ai fait cette manip en décembre sur un serveur SoYouStart avec 3 SSD
et j'avais donné le résumé dans cette discussion :
http://forum.soyoustart.com/showthre...ull=1#post2423

Tu peux certainement t'en inspirer
mais je décline toute responsabilité en cas de gros couac

hedii
05/01/2015, 08h59
Si tu manage ton raid avec mdadm, tu peux regarder le point numéro 3 sur ce lien : http://www.ducea.com/2009/03/08/mdadm-cheat-sheet/

Si ta partition qui est hs est bien sdb5, tu peux faire ca (vérifie bien que c'est sdb5 qui fail) :

sudo mdadm --remove /dev/md5 /dev/sdb5

masterboy
04/01/2015, 15h12
Bonjour,

J'ai actuellement un raid 1 sur 3 disques, et j'aimerais passer à 2. Est-ce possible sans créer un nouveau raid ?

Pour le moment j'ai sortie un disque de la grappe et mon raid me déclare 1 disque HS sur les 3. Comment lui dire que je souhaite juste travailler avec deux disques.

Voici l'aperçu du raid.

md5 : active raid1 sda5[0] sdc5[2]
111046592 blocks [3/2] [U_U]
Merci beaucoup.

Cordialement,
Thomas.