Serveur ne boot plus après remplacement disque RAID soft
jvieille
12/09/2016, 22h13
Opération réparation de la RAM terminée, le serveur redémarre normalement...
Je pensais que le défaut de RAM était au false positive, puisque ça fonctionnait en rescue...
Bizarre!
Un problème de ram, il ne faut pas hésiter à demander immédiatement un remplacement .. (par téléphone ou ticket "incident")
jvieille
12/09/2016, 12h38
Si, je l'avais signalé au support - et au début de cette discussion
Tu n'as pas testé la ram du serveur en rescue ?!?!?
jvieille
12/09/2016, 11h18
Le support OVH vient de réagir après 2 semaines... ma config leur parait OK, la RAM semble HS, je suis curieux de savoir si c'est bien la raison de mes problèmes
jvieille
10/09/2016, 07h00
J'utilise aussi Webmin, qui m'a indiqué que tout était OK après le remplacement du disque. (tout semblait parfait, également en ligne de commande, c'est au redémarrage que ça a déconné.
En l'occurence, il ne marche pas en rescue...
J'ai rendu mon serveur, je n'en avais pas absolument besoin. Mais j'aurais aimé comprendre pourquoi j'ai vécu une telle galère, ce que j'ai pu loupé dans les manip expliquées sur le guide OVH.
Personnellement j'installe webmin et je gère ça directement en graphique.
Idem.
Suivant
https://www.debian.org/releases/stab...apds03.html.en D.3.4.1. Create device files
Il si'agit simplement le fait que /dev/sda (b) ne sont pas présent car pas crée dans .dev/ ...
fritz2cat
04/09/2016, 18h58
Tu peux faire la commande suivante
dmesg > /tmp/dmesg.txt
et poster ce fichier sur pastebin.com ?
Car l'absence de sda et sdb m'interpelle énormément
l'avantage du raid, c'est que l'interruption normalement se limite au temps que le technicien change le disque HS.
Tu peux résyncrho le raid et réinstaller grub sur le nouveau disque pendant que ton serveur est en prod. (forcément çà lui prend des ressources de resyncrho le raid mais bon... Tu gagnes quand même du temps).
Après, bien sur avec ou sans RAID, il faut aussi des backups distants.
J'ai eu le cas 1x où les 2 disques ont grillés en moins d'une semaine....
Mais j'ai eu le temps de changer le premier, reconstruire le raid.... 3 jours après le second était HS également...
Mais ayant eu le temps de reconstruire mon raid tout est repartit sans problème... Si ce n'est 2 coupures pour changer les disques et reconstruire le raid.
Mais c'est vrai qu'avec de bons backups et un script d'install auto ça revient presque au même de tout réinstaller que de reconstruire le raid.
NicolasFR
04/09/2016, 15h16
Envoyé par
buddy
Pour faire quoi sans raid tu aurais déjà tout perdu..
Non, perso j'ai arrêter le RAID car avec 2 disque l'intérêt est quasi nul, tu prends donc un serveur 2 disques et un disque contient toutes tes données, le second des backups fréquents (et 1 autre serveur récupère ses backups chaque nuit)... Quelque soit le disque qui tombe tu n'es pas embêté et en quelques heures tout est sur pied sans difficulté.
Le jour où ton magnifique RAID fera une chute de tes 2 disques en même temps, tu relativisera sur son importance (et oui, cela m'ait déjà arrivé 2 fois)...
Pour faire quoi sans raid tu aurais déjà tout perdu..
Le problème personnellement c'est que je ne sais pas comment t'aider. Ce n'est pas normal que smartctl ne marche pas par exemple.. Mais là je n'ai pas de serveur pour tester.
jvieille
04/09/2016, 10h36
Et passer au Kimsufi sans RAID.
Depuis le temps que tu y es tu aurais déjà pu faire tes backup et réinstaller via le manager....... Puis ensuite tu réinjectes tes backups et c'est reparti....
jvieille
04/09/2016, 08h51
J'ai fait ça:
Code:
root@rescue:/# mount -t proc proc /proc
a présent,
Code:
root@rescue:/# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sda2[0] sdb2[1]
511998912 blocks [2/2] [UU]
md3 : active raid1 sda3[0] sdb3[1]
1439413184 blocks [2/2] [UU]
unused devices:
et
Code:
root@rescue:/# fdisk -l
Disk /dev/md3: 1474.0 GB, 1473959100416 bytes
2 heads, 4 sectors/track, 359853296 cylinders, total 2878826368 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/md3 doesn't contain a valid partition table
Disk /dev/md2: 524.3 GB, 524286885888 bytes
2 heads, 4 sectors/track, 127999728 cylinders, total 1023997824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/md2 doesn't contain a valid partition table
Mais toujours
Code:
root@rescue:/# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
Smartctl open device: /dev/sda failed: No such device
Concernant :
Envoyé par
jvieille
.....
Aussi
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions
root@rescue:/mnt# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
Je te conseille de regarder ceci :
https://www.debian.org/releases/stab...apds03.html.en
Avant (la bonne époque)) un simple:
mount /dev/md2 /mnt
puis
mount /dev/md3 /mnt/var
puis un
chroot /mnt/
m'as donné accès à tout.
Visiblement, ce n'est plus le cas.
Section D.3.4.2. Mount Partitions
le démontre bien.
Dès que peut 'down' mon serveur, je testeras tout ça, vu que j'ai presque la même config que toi (Un Debian 8.x sec sur raid 1 )
PS : OVH ne pourrait JAMAIS remplacer la doc de toutes ces OS's ... oublie de suite le doc d'OVH concernant les détails d'un OS, le sujet est trop vaste.
Donc, t'as un Ubuntu (proche de Debian mais plus chaud boulon) il FAUT que t'utilise le doc de cet OS.
Le raid soft sert à pouvoir repartir assez rapidement en cas de défaillance de l'un des disques.
Il permet également de continuer à fonctionner même quand un disque casse pour pouvoir planifier l'intervention avec le client.
Concernant la récupération des données normalement le raid permet de le faire. Et de toute façon un raid ne vous exonère pas de faire des sauvegardes.
Pour la galère à remonter le serveur je n'ai jamais rencontré ce problème, bon cela fait très longtemps que je n'ai pas eu de problème disques donc je suis un peu rouillé, mais généralement une fois devant la console ça revient vite.
Après il faut reconnaitre que vu que pour ma part j'installe tous mes serveurs de la même façon et via un script cela peut être parfois plus rapide de tout réinstaller via un script puis de restaurer un backup. Mais uniquement quand c'est galère pour remonter le raid, ce qui n'est jamais arrivé.
Concernant le raid hard il faut tout de même monitorer son raid avec je ne sais plus quel programme (j'ai zappé le nom). Pour la reconstruction je ne sais pas, je n'ai eu qu'un seul raid hard à gérer et je n'ai pas eu de défaillance disque sur ce serveur.
L'avantage du raid hard étant d'avoir une carte raid qui se charge de la réplique des données ce qui donne moins de boulot au processeur. Qui plus est il y'a généralement une mémoire cache sur cette carte qui assure un tampon pour améliorer les perfs. Il y'a également fréquemment une batterie sur la dite carte ce qui pose moins de problème en cas de coupure de courant car il y'a moins de risques de pertes de données ou d'incident de réplication.
jvieille
02/09/2016, 23h07
J'avais fait chroot /mnt/ avant update-grub
upgrade-grub n'existe pas
root@rescue:/# upgrade-grub
upgrade-grub: command not found
- - - Updated - - -
Petite question: à quoi ça sert un RAID soft?
- pas sûr de récupérer les données
- une galère de plusieurs jours sans garantie de repartir.
Je suppose qu'avec le RAID Hard, il n'y a rien à faire.
Envoyé par
jvieille
J'ai rebooté en rescue, ça va un peu mieux.
J'ai fait ça
.....
....
en ensuite ça déconne
Code:
root@rescue:/mnt# update-grub
Hein ... ?
En suite t'es sensé de faire :
Puis
etc
jvieille
02/09/2016, 18h54
J'ai rebooté en rescue, ça va un peu mieux.
J'ai fait ça
Code:
root@rescue:~# mount /dev/md2 /mnt/
root@rescue:~# mount /dev/md3 /mnt/home
root@rescue:~# cat /mnt/etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
root@rescue:~# chroot /mnt/
root@rescue:/var# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
en ensuite ça déconne
Code:
root@rescue:/mnt# update-grub
Generating grub configuration file ...
/proc/devices: fopen failed: No such file or directory
...
root@rescue:/mnt# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
Smartctl open device: /dev/sda failed: No such device
root@rescue:/mnt# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
Smartctl open device: /dev/sda failed: No such device
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions
Envoyé par
buddy
là çà craint ...
çà doit être le rescue qui a planté ... essaye de redémarrer le serveur en rescue.
...
Pas tant que ça - voir #14 - j'ai la même chose.
Et "Internet" explique bience qu'il faut faire (installer "google.fr" et t'auras la réponse))
Le
reboot
qui marche pas : t'as
exit ton
schroot avant ?
cassiopee
02/09/2016, 16h40
Envoyé par
Nowwhat
Avant de sauvegarder, il faut d'abord "mount" dans /mnt/
(sinon, tu sauegarde QUE le système rescue
Je n'ai pas dit le contraire.
Afin de pouvoir sauvegarder ses données, il faut bien évidement avoir fait le mount
au préalable.
Je précisais "une fois le mount d'un des disques faits" afin qu'il n'aille
pas vérifier les logs directement dans "/var/log" et qu'il n'y trouve rien puisque
ce serait les logs du mode rescue et non pas les logs de son serveur.
Ce n'était pas une indication chronologique des choses à faire.
Force un hard reboot via le manager..
jvieille
02/09/2016, 16h23
J'ai la totale.
root@rescue:/dev# reboot
shutdown: Unable to shutdown system
root@rescue:/dev# cd ..
root@rescue:/# reboot
shutdown: Unable to shutdown system
root@rescue:/# sudo shutdown -rv now
sudo: unable to resolve host rescue.ovh.net
shutdown: Unable to shutdown system
là çà craint ...
çà doit être le rescue qui a planté ... essaye de redémarrer le serveur en rescue.
tape
reboot
dans le terminal.
jvieille
02/09/2016, 15h19
root@rescue:/dev# fdisk -l
cannot open /proc/partitions
Et fdisk -l te renvoie quoi maintenant ?
jvieille
02/09/2016, 14h45
root@rescue:/dev# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke,
www.smartmontools.org
Smartctl open device: /dev/sda failed: No such device
root@rescue:/dev# smartctl -a /dev/sdb
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke,
www.smartmontools.org
Smartctl open device: /dev/sdb failed: No such device
root@rescue:/dev#
Et si tu tapes directement
smartctl -a /dev/sda
smartctl -a /dev/sdb
jvieille
02/09/2016, 14h12
Ca ne va pas fort:
Code:
root@rescue:/# update-grub
Generating grub configuration file ...
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
Found linux image: /boot/vmlinuz-3.13.0-95-generic
Found initrd image: /boot/initrd.img-3.13.0-95-generic
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
Found linux image: /boot/vmlinuz-3.13.0-93-generic
Found initrd image: /boot/initrd.img-3.13.0-93-generic
Found linux image: /boot/vmlinuz-3.13.0-92-generic
Found initrd image: /boot/initrd.img-3.13.0-92-generic
Found linux image: /boot/vmlinuz-3.13.0-91-generic
Found initrd image: /boot/initrd.img-3.13.0-91-generic
Found linux image: /boot/vmlinuz-3.13.0-88-generic
Found initrd image: /boot/initrd.img-3.13.0-88-generic
Found linux image: /boot/vmlinuz-3.13.0-87-generic
Found initrd image: /boot/initrd.img-3.13.0-87-generic
Found linux image: /boot/vmlinuz-3.13.0-86-generic
Found initrd image: /boot/initrd.img-3.13.0-86-generic
Found linux image: /boot/vmlinuz-3.13.0-83-generic
Found initrd image: /boot/initrd.img-3.13.0-83-generic
Found linux image: /boot/vmlinuz-3.13.0-76-generic
Found initrd image: /boot/initrd.img-3.13.0-76-generic
Found linux image: /boot/vmlinuz-3.13.0-74-generic
Found initrd image: /boot/initrd.img-3.13.0-74-generic
Found linux image: /boot/vmlinuz-3.13.0-71-generic
Found initrd image: /boot/initrd.img-3.13.0-71-generic
Found linux image: /boot/vmlinuz-3.13.0-68-generic
Found initrd image: /boot/initrd.img-3.13.0-68-generic
Found linux image: /boot/vmlinuz-3.13.0-66-generic
Found initrd image: /boot/initrd.img-3.13.0-66-generic
Found linux image: /boot/vmlinuz-3.13.0-65-generic
Found initrd image: /boot/initrd.img-3.13.0-65-generic
Found linux image: /boot/vmlinuz-3.13.0-63-generic
Found initrd image: /boot/initrd.img-3.13.0-63-generic
grep: /proc/mounts: No such file or directory
Cannot find list of partitions! (Try mounting /sys.)
done
Code:
root@rescue:/# smartctl -a -d ata /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
Smartctl open device: /dev/sda failed: No such device
root@rescue:/# smartctl -a -d ata /dev/sdb
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
Smartctl open device: /dev/sdb failed: No such device
root@rescue:/#
J'ai trouvé ses commandes pour quand tu es en rescue.
grub-install --no-floppy --root-directory=/mnt /dev/sda
grub-install --no-floppy --root-directory=/mnt /dev/sdb
Il faudrait aussi faire un smartctl des 2 disques.. Et poster le résultat ici.
smartctl -a -d ata /dev/sda
smartctl -a -d ata /dev/sdb
[QUOTE=jvieille;678138]....
Après le chroot, je n'ai rien dans /mnt/
Normal.
Avant le chroot, t'es ans le system "rescue" - avec son répertoire /mnt qui est vide.
Dans /mnt (ou dans /plopplop - ou n'importe) tu "mount" tes partitions:
mount /dev/md2 /mnt
mount /dev/md3 /mnt/var
(ou réserve que c'est /var ton /md3)
Mainrtenant, t'es toujours dans le "shel" rescue : donc ceci
ls -al /mnt/mnt/
est valable !!
Après le chroot /mnt/
le 'root' ou la racine de ton système de fichiers devient ce que t'as sur tes partitions.
Dans ton système, t'as aussi un /mnt - qui est vide normalement.
Envoyé par
jvieille
....
Aussi
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions
root@rescue:/mnt# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
Justement, j'ai vu ça moi aussi ....
Je n'ai pas pu exécuter
non plus pour la même raison =< "cannot open /proc/partitions"
"proc" est un système de fichiers virtuelle et de mémoire, (Avant Jessie) je n'avait pas ce soucis.
Le répertoire /proc existe, mail il n'est pas peuple avec l'info de mon serveur après le chroot (soit pas mounté conforme /etc/fstab, ....)
Il faut que je cherche pourquoi ....
Après le chroot,
update-grub
grub-install /dev/sda
grub-install /dev/sdb
est possible ?
jvieille
02/09/2016, 11h49
J'ai déjà une sauvegarde effectuée avant le remplacement du disque.
Après le chroot, je n'ai rien dans /mnt/
Aussi
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions
root@rescue:/mnt# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
Envoyé par
cassiopee
Si ce n'est déjà fait, avant de modifier quoique ce soit dans les disques (avec grub-install ou autre),
commence par sauvegarder toutes tes données
Ensuite, une fois le mount d'un des disques faits, il faudrait aller voir les fichiers de logs
(si tu mountes dans "/mnt", ce sera sans doute dans "/mnt/var/log/..."
Avant de sauvegarder, il faut d'abord "mount" dans /mnt/
(sinon, tu sauegarde QUE le système rescue
Je viens de mettre mon serveur SYS en mode rescue.
J'ai un
et un Raid 1, donc :
Donc :
(en mode rescue)
Puis l’astucieux
qui m'informe que le "md3" est en fait mon /var
Dès cet instant j'ai déjà tout mes fichiers dans /mnt/pour faire une sauvegarde.
AVANT d'exécuter le "grub-install" (2x - un fois pour chaque disque) il faut d'abord faire le 'chroot' :
jvieille
02/09/2016, 10h50
Ubuntu 14.04 LTS
Voici peut-être qq chose d'utile
Code:
Aug 31 08:01:35 ns3010318 kernel: [543844.909621] SGI XFS with ACLs, security attributes, realtime, large block/inode numbers, no debug enabled
Aug 31 08:01:01 ns3010318 CRON[12195]: (root) CMD (/usr/local/rtm/bin/rtm 51 > /dev/null 2> /dev/null)
Aug 31 08:01:35 ns3010318 kernel: [543844.909621] SGI XFS with ACLs, security attributes, realtime, large block/inode numbers, no debug enabled
Aug 31 08:01:35 ns3010318 kernel: [543844.936909] JFS: nTxBlock = 8192, nTxLock = 65536
Aug 31 08:01:35 ns3010318 kernel: [543844.990828] NTFS driver 2.1.30 [Flags: R/O MODULE].
Aug 31 08:01:36 ns3010318 kernel: [543845.089383] QNX4 filesystem 0.2.3 registered.
Aug 31 08:01:36 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sda1
Aug 31 08:01:36 ns3010318 50mounted-tests: debug: /dev/sda1 type not recognised; skipping
Aug 31 08:01:36 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sda2: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sda3: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sda4: is active swap
Aug 31 08:01:36 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sdb1
Aug 31 08:01:36 ns3010318 50mounted-tests: debug: /dev/sdb1 type not recognised; skipping
Aug 31 08:01:36 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sdb2: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sdb3: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sdb4: is active swap
Aug 31 08:01:50 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sda1
Aug 31 08:01:50 ns3010318 50mounted-tests: debug: /dev/sda1 type not recognised; skipping
Aug 31 08:01:50 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sda2: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sda3: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sda4: is active swap
Aug 31 08:01:50 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sdb1
Aug 31 08:01:50 ns3010318 50mounted-tests: debug: /dev/sdb1 type not recognised; skipping
Aug 31 08:01:50 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sdb2: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sdb3: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sdb4: is active swap
cassiopee
02/09/2016, 10h20
Si ce n'est déjà fait, avant de modifier quoique ce soit dans les disques (avec grub-install ou autre),
commence par sauvegarder toutes tes données
Ensuite, une fois le mount d'un des disques faits, il faudrait aller voir les fichiers de logs
(si tu mountes dans "/mnt", ce sera sans doute dans "/mnt/var/log/..."
Les dernières lignes de syslog vues plus haut ne donnent aucune info utile sur
le "pourquoi ça ne démarre pas". Peut-être dans "kernel.log" si ce fichier est présent.
Le mieux est de trier chronologiquement les fichiers de logs (par exemple via
la commande "ls -alrt", les fichiers modifiés les plus récemment étant affichés
en fin de liste, puis de regarder les 50-100 dernières lignes de ces fichiers de logs.
Si d'après les logs, c'est bien Grub qui pose problème, j'ai l'impression qu'il y a
pas mal d'étapes préalables (une série de petits mount) à faire avant le chroot
afin que le grub-install fonctionne bien.
Cf là :
https://wiki.debian-fr.xyz/R%C3%A9installer_Grub2
(à lire seulement à partir de "Solution avec un chroot")
Ton serveur dédié repose sur une Debian ou sur un autre système ?
jvieille
02/09/2016, 09h04
J'avais oublié le chroot après relance de la session ssh.
J'obtiens ceci:
Code:
root@rescue:/# grub-install /dev/sda
Installing for i386-pc platform.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
grub-install: error: cannot find a GRUB drive for /dev/sda. Check your device.map.
Et à présent pas mal de soucis
Code:
root@rescue:/# cat /proc/mdstat
cat: /proc/mdstat: No such file or directory
Code:
root@rescue:/# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST
# instruct the monitoring daemon where to send mail alerts
MAILADDR j.vieille@controlchaingroup.com
# definitions of existing MD arrays
ARRAY /dev/md2 UUID=b29d88dd:19b80a57:a4d2adc2:26fd5302
ARRAY /dev/md3 UUID=b1aca4da:d1b59dac:a4d2adc2:26fd5302
Code:
root@rescue:/# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
Code:
root@rescue:/# mdadm --misc --detail /dev/md2
/dev/md2:
Version : 0.90
Creation Time : Thu Sep 3 15:42:17 2015
Raid Level : raid1
Array Size : 511998912 (488.28 GiB 524.29 GB)
Used Dev Size : 511998912 (488.28 GiB 524.29 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Fri Sep 2 08:56:37 2016
Segmentation fault
Code:
root@rescue:/# mdadm --misc --detail /dev/md3
/dev/md3:
Version : 0.90
Creation Time : Thu Sep 3 15:42:17 2015
Raid Level : raid1
Array Size : 1439413184 (1372.73 GiB 1473.96 GB)
Used Dev Size : 1439413184 (1372.73 GiB 1473.96 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Thu Sep 1 19:58:15 2016
Segmentation fault
jvieille
02/09/2016, 08h52
D'après ceci
Code:
root@rescue:~# mdadm --misc --detail /dev/md2
/dev/md2:
Version : 0.90
Creation Time : Thu Sep 3 15:42:17 2015
Raid Level : raid1
Array Size : 511998912 (488.28 GiB 524.29 GB)
Used Dev Size : 511998912 (488.28 GiB 524.29 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Wed Aug 31 08:17:54 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : b29d88dd:19b80a57:a4d2adc2:26fd5302 (local to host rescue.ovh. net)
Events : 0.3410641
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
je pense que mes disques s'appellent /dev/sda et /dev/sdb.
D'après ceci
http://unix.stackexchange.com/questi...-a-soft-raid-1
il suffirait donc de taper grub-install /dev/sda et grub-install /dev/sdb.
J'obtiens "failed to get canonical path of `aufs'"
A quoi sert le RAID si ça ne fonctionne plus après changement de disque et que c'est si compliqué à remettre en route - les instructions OVH ne font pas état de telles manoeuvres suppléentaires.
Merci pour votre aide
jvieille
01/09/2016, 20h12
Voici les dernière ligne de syslog
Aug 31 08:17:01 ns3010318 CRON[6868]: (root) CMD (/usr/local/rtm/bin/rtm 51 > /dev/null 2> /dev/null)
Aug 31 08:17:01 ns3010318 CRON[6870]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Aug 31 06:33:36 ns3010318 rsyslogd: message repeated 7 times: [ [origin software="rsyslogd" swVersion="7.4.4" x-pid="813" x-info="http://www.rsyslog.com"] rsyslogd was HUPed]
Aug 31 08:17:34 ns3010318 rsyslogd: [origin software="rsyslogd" swVersion="7.4.4" x-pid="813" x-info="http://www.rsyslog.com"] exiting on signal 15.
jvieille
01/09/2016, 20h07
J'avais oublié chroot /mnt/
J'ai bien retrouvé toutes mes données.
Il est bien possible que le disque échangé n'aie pas de boot: je n'ai rien vu dans la procédure à ce sujet.
hum, déjà vérifier que les données soient bien présentes sur les disques.... C'est le plus important...
Le gestionnaire de boot ça doit être grub... Cela date ma dernière intervention de ce type, mais il me semble qu'il faut monter les partitions, faire un chroot, puis un grub-install sur les deux disques.
Mais en premier lieu il faut vérifier que les données soient bien là, au moins sur l'un des disques.
Il doit y avoir mdx pour le raid, mais aussi sdax pour accéder directement aux disques.
Donc pour le moment, réussir à retrouver les données. C'est la priorité. Et s'assurer que les backups sont ok.
jvieille
01/09/2016, 19h29
Le test des partition est OK.
Comment accéder au gestionnaire de démarrage?
Par ailleurs, j'ai essayé de monter les partitions, mais je ne vois pas mes fichiers, tout est vide...
Merci
Peut être le gestionnaire de boot qui n'a pas été installé sur les 2 disques ?
Un disque peut être HS ? En rescue que dit le test des partitions ?
Comment est configuré le gestionnaire de démarrage ? Sur le raid je présume, il serait bon de tester en pointant directement sur l'un des disques pour voir si ça démarre.
jvieille
01/09/2016, 18h50
Le support est aux abonnés absents, je tente donc le coup ici.
J'ai eu un pb de disque sur un serveur Soyoustart avec RAID1 soft
J'ai fait ce qui était indiqué à cette page
http://guides.ovh.com/RaidSoft avec un peu d'aide du support OVH et tout s'est apparemment bien passé, le statut RAID était OK, disques synchronisés.
Lors d'une mise à jour, j'ai du lancer un redémarrage, le serveur n'est jamais reparti.
Le support OVH est intervenu, a passé le serveur en mode Rescue et m'a dit de me débrouiller:
L'intervention sur ns3010318.ip-94-23-251.eu est terminée.
Cette opération a été achevée le 2016-08-31 08:41:58
Voici les détails de cette opération :
Diagnostic software
Date 2016-08-31 08:28:11, marc S a fait Diagnostic software:
Le server n'arrive pas a booter sur disque.
Reboot en rescue, code d'acces envoye.
Ping ok.
J'ai peut-être oublié une manoeuvre lors de la resynchronisation du RAID?
De plus, le test en rescue indique une erreur mémoire - jamais la même.
ci-dessous quelques tests
Code:
root@rescue:~# df
Filesystem 1K-blocks Used Available Use% Mounted on
aufs 8160752 83524 8077228 2% /
devtmpfs 8159824 0 8159824 0% /dev
178.33.124.65:/home/pub/rescue.v8 2039337712 257927384 1677794944 14% /nfs
tmpfs 8160752 83524 8077228 2% /rw
178.33.124.65:/home/pub/pro-power 2039337712 257927384 1677794944 14% /power
178.33.124.65:/home/pub/commonnfs 2039337712 257927384 1677794944 14% /common
tmpfs 8160752 0 8160752 0% /dev/shm
tmpfs 8160752 18032 8142720 1% /run
tmpfs 5120 0 5120 0% /run/lock
tmpfs 8160752 0 8160752 0% /sys/fs/cgroup
tmpfs 8160752 184 8160568 1% /tmp
root@rescue:~# ^C
root@rescue:~#
Code:
root@rescue:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sda2[0] sdb2[1]
511998912 blocks [2/2] [UU]
md3 : active raid1 sda3[0] sdb3[1]
1439413184 blocks [2/2] [UU]
unused devices:
Code:
root@rescue:~# mdadm --misc --detail /dev/md2
/dev/md2:
Version : 0.90
Creation Time : Thu Sep 3 15:42:17 2015
Raid Level : raid1
Array Size : 511998912 (488.28 GiB 524.29 GB)
Used Dev Size : 511998912 (488.28 GiB 524.29 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Wed Aug 31 08:17:54 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : b29d88dd:19b80a57:a4d2adc2:26fd5302 (local to host rescue.ovh. net)
Events : 0.3410641
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
Code:
root@rescue:~# mdadm --misc --detail /dev/md3
/dev/md3:
Version : 0.90
Creation Time : Thu Sep 3 15:42:17 2015
Raid Level : raid1
Array Size : 1439413184 (1372.73 GiB 1473.96 GB)
Used Dev Size : 1439413184 (1372.73 GiB 1473.96 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Wed Aug 31 08:17:54 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : b1aca4da:d1b59dac:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.10809
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
Code:
root@rescue:~# fdisk -l
Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5385BB13-CD8D-40FD-8287-DFA812EDED79
Device Start End Sectors Size Type
/dev/sdb1 40 2048 2009 1004.5K BIOS boot
/dev/sdb2 4096 1024002047 1023997952 488.3G Linux RAID
/dev/sdb3 1024002048 3902828543 2878826496 1.3T Linux RAID
/dev/sdb4 3902828544 3907020799 4192256 2G Linux swap
Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5385BB13-CD8D-40FD-8287-DFA812EDED79
Device Start End Sectors Size Type
/dev/sda1 40 2048 2009 1004.5K BIOS boot
/dev/sda2 4096 1024002047 1023997952 488.3G Linux RAID
/dev/sda3 1024002048 3902828543 2878826496 1.3T Linux RAID
/dev/sda4 3902828544 3907020799 4192256 2G Linux swap
Disk /dev/md3: 1.3 TiB, 1473959100416 bytes, 2878826368 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/md2: 488.3 GiB, 524286885888 bytes, 1023997824 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Merci pour l'aide