OVH Community, votre nouvel espace communautaire.

Serveur ne boot plus après remplacement disque RAID soft


jvieille
12/09/2016, 22h13
Opération réparation de la RAM terminée, le serveur redémarre normalement...
Je pensais que le défaut de RAM était au false positive, puisque ça fonctionnait en rescue...
Bizarre!

buddy
12/09/2016, 13h08
Un problème de ram, il ne faut pas hésiter à demander immédiatement un remplacement .. (par téléphone ou ticket "incident")

jvieille
12/09/2016, 12h38
Si, je l'avais signalé au support - et au début de cette discussion

buddy
12/09/2016, 12h02
Tu n'as pas testé la ram du serveur en rescue ?!?!?

jvieille
12/09/2016, 11h18
Le support OVH vient de réagir après 2 semaines... ma config leur parait OK, la RAM semble HS, je suis curieux de savoir si c'est bien la raison de mes problèmes

jvieille
10/09/2016, 07h00
J'utilise aussi Webmin, qui m'a indiqué que tout était OK après le remplacement du disque. (tout semblait parfait, également en ligne de commande, c'est au redémarrage que ça a déconné.
En l'occurence, il ne marche pas en rescue...
J'ai rendu mon serveur, je n'en avais pas absolument besoin. Mais j'aurais aimé comprendre pourquoi j'ai vécu une telle galère, ce que j'ai pu loupé dans les manip expliquées sur le guide OVH.

boris44
09/09/2016, 23h42
Personnellement j'installe webmin et je gère ça directement en graphique.

Nowwhat
04/09/2016, 19h11
Idem.
Suivant https://www.debian.org/releases/stab...apds03.html.en D.3.4.1. Create device files
Il si'agit simplement le fait que /dev/sda (b) ne sont pas présent car pas crée dans .dev/ ...

fritz2cat
04/09/2016, 18h58
Tu peux faire la commande suivante
dmesg > /tmp/dmesg.txt
et poster ce fichier sur pastebin.com ?

Car l'absence de sda et sdb m'interpelle énormément

buddy
04/09/2016, 16h18
l'avantage du raid, c'est que l'interruption normalement se limite au temps que le technicien change le disque HS.
Tu peux résyncrho le raid et réinstaller grub sur le nouveau disque pendant que ton serveur est en prod. (forcément çà lui prend des ressources de resyncrho le raid mais bon... Tu gagnes quand même du temps).

Après, bien sur avec ou sans RAID, il faut aussi des backups distants.

sich
04/09/2016, 15h21
J'ai eu le cas 1x où les 2 disques ont grillés en moins d'une semaine....
Mais j'ai eu le temps de changer le premier, reconstruire le raid.... 3 jours après le second était HS également...

Mais ayant eu le temps de reconstruire mon raid tout est repartit sans problème... Si ce n'est 2 coupures pour changer les disques et reconstruire le raid.

Mais c'est vrai qu'avec de bons backups et un script d'install auto ça revient presque au même de tout réinstaller que de reconstruire le raid.

NicolasFR
04/09/2016, 15h16
Citation Envoyé par buddy
Pour faire quoi sans raid tu aurais déjà tout perdu..
Non, perso j'ai arrêter le RAID car avec 2 disque l'intérêt est quasi nul, tu prends donc un serveur 2 disques et un disque contient toutes tes données, le second des backups fréquents (et 1 autre serveur récupère ses backups chaque nuit)... Quelque soit le disque qui tombe tu n'es pas embêté et en quelques heures tout est sur pied sans difficulté.
Le jour où ton magnifique RAID fera une chute de tes 2 disques en même temps, tu relativisera sur son importance (et oui, cela m'ait déjà arrivé 2 fois)...

buddy
04/09/2016, 10h48
Pour faire quoi sans raid tu aurais déjà tout perdu..
Le problème personnellement c'est que je ne sais pas comment t'aider. Ce n'est pas normal que smartctl ne marche pas par exemple.. Mais là je n'ai pas de serveur pour tester.

jvieille
04/09/2016, 10h36
Et passer au Kimsufi sans RAID.

sich
04/09/2016, 09h07
Depuis le temps que tu y es tu aurais déjà pu faire tes backup et réinstaller via le manager....... Puis ensuite tu réinjectes tes backups et c'est reparti....

jvieille
04/09/2016, 08h51
J'ai fait ça:
Code:
root@rescue:/# mount -t proc proc /proc
a présent,
Code:
root@rescue:/# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sda2[0] sdb2[1]
      511998912 blocks [2/2] [UU]

md3 : active raid1 sda3[0] sdb3[1]
      1439413184 blocks [2/2] [UU]

unused devices: 
et
Code:
root@rescue:/#  fdisk -l

Disk /dev/md3: 1474.0 GB, 1473959100416 bytes
2 heads, 4 sectors/track, 359853296 cylinders, total 2878826368 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md3 doesn't contain a valid partition table

Disk /dev/md2: 524.3 GB, 524286885888 bytes
2 heads, 4 sectors/track, 127999728 cylinders, total 1023997824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md2 doesn't contain a valid partition table
Mais toujours
Code:
root@rescue:/# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sda failed: No such device

Nowwhat
03/09/2016, 11h54
Concernant :
Citation Envoyé par jvieille
.....
Aussi
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions

root@rescue:/mnt# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0

Je te conseille de regarder ceci : https://www.debian.org/releases/stab...apds03.html.en
Avant (la bonne époque)) un simple:
mount /dev/md2 /mnt
puis
mount /dev/md3 /mnt/var
puis un
chroot /mnt/
m'as donné accès à tout.

Visiblement, ce n'est plus le cas.
Section D.3.4.2. Mount Partitions
le démontre bien.

Dès que peut 'down' mon serveur, je testeras tout ça, vu que j'ai presque la même config que toi (Un Debian 8.x sec sur raid 1 )


PS : OVH ne pourrait JAMAIS remplacer la doc de toutes ces OS's ... oublie de suite le doc d'OVH concernant les détails d'un OS, le sujet est trop vaste.
Donc, t'as un Ubuntu (proche de Debian mais plus chaud boulon) il FAUT que t'utilise le doc de cet OS.

sich
03/09/2016, 09h12
Le raid soft sert à pouvoir repartir assez rapidement en cas de défaillance de l'un des disques.
Il permet également de continuer à fonctionner même quand un disque casse pour pouvoir planifier l'intervention avec le client.

Concernant la récupération des données normalement le raid permet de le faire. Et de toute façon un raid ne vous exonère pas de faire des sauvegardes.
Pour la galère à remonter le serveur je n'ai jamais rencontré ce problème, bon cela fait très longtemps que je n'ai pas eu de problème disques donc je suis un peu rouillé, mais généralement une fois devant la console ça revient vite.

Après il faut reconnaitre que vu que pour ma part j'installe tous mes serveurs de la même façon et via un script cela peut être parfois plus rapide de tout réinstaller via un script puis de restaurer un backup. Mais uniquement quand c'est galère pour remonter le raid, ce qui n'est jamais arrivé.

Concernant le raid hard il faut tout de même monitorer son raid avec je ne sais plus quel programme (j'ai zappé le nom). Pour la reconstruction je ne sais pas, je n'ai eu qu'un seul raid hard à gérer et je n'ai pas eu de défaillance disque sur ce serveur.
L'avantage du raid hard étant d'avoir une carte raid qui se charge de la réplique des données ce qui donne moins de boulot au processeur. Qui plus est il y'a généralement une mémoire cache sur cette carte qui assure un tampon pour améliorer les perfs. Il y'a également fréquemment une batterie sur la dite carte ce qui pose moins de problème en cas de coupure de courant car il y'a moins de risques de pertes de données ou d'incident de réplication.

jvieille
02/09/2016, 23h07
J'avais fait chroot /mnt/ avant update-grub
upgrade-grub n'existe pas
root@rescue:/# upgrade-grub
upgrade-grub: command not found

- - - Updated - - -

Petite question: à quoi ça sert un RAID soft?
- pas sûr de récupérer les données
- une galère de plusieurs jours sans garantie de repartir.

Je suppose qu'avec le RAID Hard, il n'y a rien à faire.

Nowwhat
02/09/2016, 21h49
Citation Envoyé par jvieille
J'ai rebooté en rescue, ça va un peu mieux.
J'ai fait ça

.....

....
en ensuite ça déconne
Code:
root@rescue:/mnt# update-grub
Hein ... ?
En suite t'es sensé de faire :
chroot /mnt/
Puis
upgrade-grub
etc

jvieille
02/09/2016, 18h54
J'ai rebooté en rescue, ça va un peu mieux.
J'ai fait ça
Code:
root@rescue:~# mount /dev/md2 /mnt/
root@rescue:~# mount /dev/md3 /mnt/home
root@rescue:~# cat /mnt/etc/fstab
#                
/dev/md2        /       ext4    errors=remount-ro,relatime      0       1
/dev/md3        /home   ext4    data=ordered,rw,grpquota,usrquota,relatime      0       2
/dev/sda4       swap    swap    defaults        0       0
/dev/sdb4       swap    swap    defaults        0       0
proc            /proc   proc    defaults                0       0
sysfs           /sys    sysfs   defaults                0       0
devtmpfs        /dev    devtmpfs        rw      0       0
root@rescue:~# chroot /mnt/

root@rescue:/var# cat /etc/fstab
#                
/dev/md2        /       ext4    errors=remount-ro,relatime      0       1
/dev/md3        /home   ext4    data=ordered,rw,grpquota,usrquota,relatime      0       2
/dev/sda4       swap    swap    defaults        0       0
/dev/sdb4       swap    swap    defaults        0       0
proc            /proc   proc    defaults                0       0
sysfs           /sys    sysfs   defaults                0       0
devtmpfs        /dev    devtmpfs        rw      0       0
en ensuite ça déconne
Code:
root@rescue:/mnt# update-grub
Generating grub configuration file ...
/proc/devices: fopen failed: No such file or directory
...

root@rescue:/mnt# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sda failed: No such device
root@rescue:/mnt# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sda failed: No such device
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions

Nowwhat
02/09/2016, 17h15
Citation Envoyé par buddy
là çà craint ...

çà doit être le rescue qui a planté ... essaye de redémarrer le serveur en rescue.
...
Pas tant que ça - voir #14 - j'ai la même chose.
Et "Internet" explique bience qu'il faut faire (installer "google.fr" et t'auras la réponse))

Le
reboot
qui marche pas : t'as exit ton schroot avant ?

cassiopee
02/09/2016, 16h40
Citation Envoyé par Nowwhat
Avant de sauvegarder, il faut d'abord "mount" dans /mnt/
(sinon, tu sauegarde QUE le système rescue
Je n'ai pas dit le contraire.

Afin de pouvoir sauvegarder ses données, il faut bien évidement avoir fait le mount
au préalable.

Je précisais "une fois le mount d'un des disques faits" afin qu'il n'aille
pas vérifier les logs directement dans "/var/log" et qu'il n'y trouve rien puisque
ce serait les logs du mode rescue et non pas les logs de son serveur.

Ce n'était pas une indication chronologique des choses à faire.

buddy
02/09/2016, 16h29
Force un hard reboot via le manager..

jvieille
02/09/2016, 16h23
J'ai la totale.

root@rescue:/dev# reboot
shutdown: Unable to shutdown system
root@rescue:/dev# cd ..
root@rescue:/# reboot
shutdown: Unable to shutdown system
root@rescue:/# sudo shutdown -rv now
sudo: unable to resolve host rescue.ovh.net
shutdown: Unable to shutdown system

buddy
02/09/2016, 15h23
là çà craint ...

çà doit être le rescue qui a planté ... essaye de redémarrer le serveur en rescue.
tape
reboot
dans le terminal.

jvieille
02/09/2016, 15h19
root@rescue:/dev# fdisk -l
cannot open /proc/partitions

buddy
02/09/2016, 14h58
Et fdisk -l te renvoie quoi maintenant ?

jvieille
02/09/2016, 14h45
root@rescue:/dev# smartctl -a /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sda failed: No such device
root@rescue:/dev# smartctl -a /dev/sdb
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sdb failed: No such device
root@rescue:/dev#

buddy
02/09/2016, 14h37
Et si tu tapes directement
smartctl -a /dev/sda
smartctl -a /dev/sdb

jvieille
02/09/2016, 14h12
Ca ne va pas fort:
Code:
root@rescue:/# update-grub
Generating grub configuration file ...
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
Found linux image: /boot/vmlinuz-3.13.0-95-generic
Found initrd image: /boot/initrd.img-3.13.0-95-generic
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
/usr/sbin/grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
Found linux image: /boot/vmlinuz-3.13.0-93-generic
Found initrd image: /boot/initrd.img-3.13.0-93-generic
Found linux image: /boot/vmlinuz-3.13.0-92-generic
Found initrd image: /boot/initrd.img-3.13.0-92-generic
Found linux image: /boot/vmlinuz-3.13.0-91-generic
Found initrd image: /boot/initrd.img-3.13.0-91-generic
Found linux image: /boot/vmlinuz-3.13.0-88-generic
Found initrd image: /boot/initrd.img-3.13.0-88-generic
Found linux image: /boot/vmlinuz-3.13.0-87-generic
Found initrd image: /boot/initrd.img-3.13.0-87-generic
Found linux image: /boot/vmlinuz-3.13.0-86-generic
Found initrd image: /boot/initrd.img-3.13.0-86-generic
Found linux image: /boot/vmlinuz-3.13.0-83-generic
Found initrd image: /boot/initrd.img-3.13.0-83-generic
Found linux image: /boot/vmlinuz-3.13.0-76-generic
Found initrd image: /boot/initrd.img-3.13.0-76-generic
Found linux image: /boot/vmlinuz-3.13.0-74-generic
Found initrd image: /boot/initrd.img-3.13.0-74-generic
Found linux image: /boot/vmlinuz-3.13.0-71-generic
Found initrd image: /boot/initrd.img-3.13.0-71-generic
Found linux image: /boot/vmlinuz-3.13.0-68-generic
Found initrd image: /boot/initrd.img-3.13.0-68-generic
Found linux image: /boot/vmlinuz-3.13.0-66-generic
Found initrd image: /boot/initrd.img-3.13.0-66-generic
Found linux image: /boot/vmlinuz-3.13.0-65-generic
Found initrd image: /boot/initrd.img-3.13.0-65-generic
Found linux image: /boot/vmlinuz-3.13.0-63-generic
Found initrd image: /boot/initrd.img-3.13.0-63-generic
grep: /proc/mounts: No such file or directory
Cannot find list of partitions!  (Try mounting /sys.)
done
Code:
root@rescue:/# smartctl -a -d ata /dev/sda
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sda failed: No such device
root@rescue:/# smartctl -a -d ata /dev/sdb
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.77-mod-std-ipv6-64-rescue] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

Smartctl open device: /dev/sdb failed: No such device
root@rescue:/#

buddy
02/09/2016, 13h27
J'ai trouvé ses commandes pour quand tu es en rescue.

grub-install --no-floppy --root-directory=/mnt /dev/sda
grub-install --no-floppy --root-directory=/mnt /dev/sdb

Il faudrait aussi faire un smartctl des 2 disques.. Et poster le résultat ici.
smartctl -a -d ata /dev/sda
smartctl -a -d ata /dev/sdb

Nowwhat
02/09/2016, 12h59
[QUOTE=jvieille;678138]....
Après le chroot, je n'ai rien dans /mnt/
Normal.
Avant le chroot, t'es ans le system "rescue" - avec son répertoire /mnt qui est vide.

Dans /mnt (ou dans /plopplop - ou n'importe) tu "mount" tes partitions:
mount /dev/md2 /mnt
mount /dev/md3 /mnt/var
(ou réserve que c'est /var ton /md3)

Mainrtenant, t'es toujours dans le "shel" rescue : donc ceci
ls -al /mnt/mnt/
est valable !!

Après le chroot /mnt/
le 'root' ou la racine de ton système de fichiers devient ce que t'as sur tes partitions.
Dans ton système, t'as aussi un /mnt - qui est vide normalement.

Citation Envoyé par jvieille
....
Aussi
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions

root@rescue:/mnt# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0
Justement, j'ai vu ça moi aussi ....
Je n'ai pas pu exécuter
fdisk -l
non plus pour la même raison =< "cannot open /proc/partitions"
"proc" est un système de fichiers virtuelle et de mémoire, (Avant Jessie) je n'avait pas ce soucis.
Le répertoire /proc existe, mail il n'est pas peuple avec l'info de mon serveur après le chroot (soit pas mounté conforme /etc/fstab, ....)
Il faut que je cherche pourquoi ....

Après le chroot,
update-grub
grub-install /dev/sda
grub-install /dev/sdb
est possible ?

jvieille
02/09/2016, 11h49
J'ai déjà une sauvegarde effectuée avant le remplacement du disque.


Après le chroot, je n'ai rien dans /mnt/


Aussi
root@rescue:/mnt# fdisk -l
cannot open /proc/partitions

root@rescue:/mnt# cat /etc/fstab
#
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 data=ordered,rw,grpquota,usrquota,relatime 0 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
devtmpfs /dev devtmpfs rw 0 0

Nowwhat
02/09/2016, 11h01
Citation Envoyé par cassiopee
Si ce n'est déjà fait, avant de modifier quoique ce soit dans les disques (avec grub-install ou autre),
commence par sauvegarder toutes tes données

Ensuite, une fois le mount d'un des disques faits, il faudrait aller voir les fichiers de logs
(si tu mountes dans "/mnt", ce sera sans doute dans "/mnt/var/log/..."
Avant de sauvegarder, il faut d'abord "mount" dans /mnt/
(sinon, tu sauegarde QUE le système rescue

Je viens de mettre mon serveur SYS en mode rescue.
J'ai un
/dev/sda et /dev/sdb
et un Raid 1, donc :
/dev/md2 et /dv/md3
Donc :
(en mode rescue)
mount /dev/md2 /mnt
Puis l’astucieux
cat /mnt/etc/fstab
qui m'informe que le "md3" est en fait mon /var
mount /dev/md3 /mnt/var
Dès cet instant j'ai déjà tout mes fichiers dans /mnt/pour faire une sauvegarde.

AVANT d'exécuter le "grub-install" (2x - un fois pour chaque disque) il faut d'abord faire le 'chroot' :
chroot /mnt/

jvieille
02/09/2016, 10h50
Ubuntu 14.04 LTS
Voici peut-être qq chose d'utile


Code:
Aug 31 08:01:35 ns3010318 kernel: [543844.909621] SGI XFS with ACLs, security attributes, realtime, large block/inode numbers, no debug enabled
Aug 31 08:01:01 ns3010318 CRON[12195]: (root) CMD (/usr/local/rtm/bin/rtm 51 > /dev/null 2> /dev/null)
Aug 31 08:01:35 ns3010318 kernel: [543844.909621] SGI XFS with ACLs, security attributes, realtime, large block/inode numbers, no debug enabled
Aug 31 08:01:35 ns3010318 kernel: [543844.936909] JFS: nTxBlock = 8192, nTxLock = 65536
Aug 31 08:01:35 ns3010318 kernel: [543844.990828] NTFS driver 2.1.30 [Flags: R/O MODULE].
Aug 31 08:01:36 ns3010318 kernel: [543845.089383] QNX4 filesystem 0.2.3 registered.
Aug 31 08:01:36 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sda1
Aug 31 08:01:36 ns3010318 50mounted-tests: debug: /dev/sda1 type not recognised; skipping
Aug 31 08:01:36 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sda2: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sda3: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sda4: is active swap
Aug 31 08:01:36 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sdb1
Aug 31 08:01:36 ns3010318 50mounted-tests: debug: /dev/sdb1 type not recognised; skipping
Aug 31 08:01:36 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sdb2: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sdb3: part of software raid array
Aug 31 08:01:36 ns3010318 os-prober: debug: /dev/sdb4: is active swap
Aug 31 08:01:50 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sda1
Aug 31 08:01:50 ns3010318 50mounted-tests: debug: /dev/sda1 type not recognised; skipping
Aug 31 08:01:50 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sda2: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sda3: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sda4: is active swap
Aug 31 08:01:50 ns3010318 os-prober: debug: running /usr/lib/os-probes/50mounted-tests on /dev/sdb1
Aug 31 08:01:50 ns3010318 50mounted-tests: debug: /dev/sdb1 type not recognised; skipping
Aug 31 08:01:50 ns3010318 os-prober: debug: os detected by /usr/lib/os-probes/50mounted-tests
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sdb2: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sdb3: part of software raid array
Aug 31 08:01:50 ns3010318 os-prober: debug: /dev/sdb4: is active swap

cassiopee
02/09/2016, 10h20
Si ce n'est déjà fait, avant de modifier quoique ce soit dans les disques (avec grub-install ou autre),
commence par sauvegarder toutes tes données

Ensuite, une fois le mount d'un des disques faits, il faudrait aller voir les fichiers de logs
(si tu mountes dans "/mnt", ce sera sans doute dans "/mnt/var/log/..."

Les dernières lignes de syslog vues plus haut ne donnent aucune info utile sur
le "pourquoi ça ne démarre pas". Peut-être dans "kernel.log" si ce fichier est présent.
Le mieux est de trier chronologiquement les fichiers de logs (par exemple via
la commande "ls -alrt", les fichiers modifiés les plus récemment étant affichés
en fin de liste, puis de regarder les 50-100 dernières lignes de ces fichiers de logs.

Si d'après les logs, c'est bien Grub qui pose problème, j'ai l'impression qu'il y a
pas mal d'étapes préalables (une série de petits mount) à faire avant le chroot
afin que le grub-install fonctionne bien.

Cf là :

https://wiki.debian-fr.xyz/R%C3%A9installer_Grub2

(à lire seulement à partir de "Solution avec un chroot")


Ton serveur dédié repose sur une Debian ou sur un autre système ?

jvieille
02/09/2016, 09h04
J'avais oublié le chroot après relance de la session ssh.

J'obtiens ceci:
Code:
root@rescue:/# grub-install /dev/sda
Installing for i386-pc platform.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sda2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sda2.
device node not found
grub-install: warning: disk does not exist, so falling back to partition device /dev/sdb2.
/proc/devices: fopen failed: No such file or directory
/proc/devices: fopen failed: No such file or directory
grub-install: error: cannot find a GRUB drive for /dev/sda.  Check your device.map.
Et à présent pas mal de soucis

Code:
root@rescue:/# cat /proc/mdstat
cat: /proc/mdstat: No such file or directory

Code:
root@rescue:/# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST 

# instruct the monitoring daemon where to send mail alerts
MAILADDR j.vieille@controlchaingroup.com

# definitions of existing MD arrays
ARRAY /dev/md2 UUID=b29d88dd:19b80a57:a4d2adc2:26fd5302
ARRAY /dev/md3 UUID=b1aca4da:d1b59dac:a4d2adc2:26fd5302
Code:
root@rescue:/# cat /etc/fstab
#                
/dev/md2        /       ext4    errors=remount-ro,relatime      0       1
/dev/md3        /home   ext4    data=ordered,rw,grpquota,usrquota,relatime      0       2
/dev/sda4       swap    swap    defaults        0       0
/dev/sdb4       swap    swap    defaults        0       0
proc            /proc   proc    defaults                0       0
sysfs           /sys    sysfs   defaults                0       0
devtmpfs        /dev    devtmpfs        rw      0       0
Code:
root@rescue:/# mdadm --misc --detail /dev/md2
/dev/md2:
        Version : 0.90
  Creation Time : Thu Sep  3 15:42:17 2015
     Raid Level : raid1
     Array Size : 511998912 (488.28 GiB 524.29 GB)
  Used Dev Size : 511998912 (488.28 GiB 524.29 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Fri Sep  2 08:56:37 2016
Segmentation fault
Code:
root@rescue:/# mdadm --misc --detail /dev/md3
/dev/md3:
        Version : 0.90
  Creation Time : Thu Sep  3 15:42:17 2015
     Raid Level : raid1
     Array Size : 1439413184 (1372.73 GiB 1473.96 GB)
  Used Dev Size : 1439413184 (1372.73 GiB 1473.96 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 3
    Persistence : Superblock is persistent

    Update Time : Thu Sep  1 19:58:15 2016
Segmentation fault

jvieille
02/09/2016, 08h52
D'après ceci
Code:
root@rescue:~# mdadm --misc --detail /dev/md2
/dev/md2:
        Version : 0.90
  Creation Time : Thu Sep  3 15:42:17 2015
     Raid Level : raid1
     Array Size : 511998912 (488.28 GiB 524.29 GB)
  Used Dev Size : 511998912 (488.28 GiB 524.29 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Wed Aug 31 08:17:54 2016
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : b29d88dd:19b80a57:a4d2adc2:26fd5302 (local to host rescue.ovh.                                                                                                             net)
         Events : 0.3410641

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
je pense que mes disques s'appellent /dev/sda et /dev/sdb.
D'après ceci
http://unix.stackexchange.com/questi...-a-soft-raid-1

il suffirait donc de taper grub-install /dev/sda et grub-install /dev/sdb.

J'obtiens "failed to get canonical path of `aufs'"

A quoi sert le RAID si ça ne fonctionne plus après changement de disque et que c'est si compliqué à remettre en route - les instructions OVH ne font pas état de telles manoeuvres suppléentaires.

Merci pour votre aide

Nowwhat
01/09/2016, 21h08
Exemple : http://unix.stackexchange.com/questi...-a-soft-raid-1

Ou https://www.howtoforge.com/how-to-se...ian-squeeze-p2 à la fin.

jvieille
01/09/2016, 20h12
Voici les dernière ligne de syslog
Aug 31 08:17:01 ns3010318 CRON[6868]: (root) CMD (/usr/local/rtm/bin/rtm 51 > /dev/null 2> /dev/null)
Aug 31 08:17:01 ns3010318 CRON[6870]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Aug 31 06:33:36 ns3010318 rsyslogd: message repeated 7 times: [ [origin software="rsyslogd" swVersion="7.4.4" x-pid="813" x-info="http://www.rsyslog.com"] rsyslogd was HUPed]
Aug 31 08:17:34 ns3010318 rsyslogd: [origin software="rsyslogd" swVersion="7.4.4" x-pid="813" x-info="http://www.rsyslog.com"] exiting on signal 15.

jvieille
01/09/2016, 20h07
J'avais oublié chroot /mnt/
J'ai bien retrouvé toutes mes données.
Il est bien possible que le disque échangé n'aie pas de boot: je n'ai rien vu dans la procédure à ce sujet.

sich
01/09/2016, 19h50
hum, déjà vérifier que les données soient bien présentes sur les disques.... C'est le plus important...
Le gestionnaire de boot ça doit être grub... Cela date ma dernière intervention de ce type, mais il me semble qu'il faut monter les partitions, faire un chroot, puis un grub-install sur les deux disques.

Mais en premier lieu il faut vérifier que les données soient bien là, au moins sur l'un des disques.
Il doit y avoir mdx pour le raid, mais aussi sdax pour accéder directement aux disques.

Donc pour le moment, réussir à retrouver les données. C'est la priorité. Et s'assurer que les backups sont ok.

jvieille
01/09/2016, 19h29
Le test des partition est OK.
Comment accéder au gestionnaire de démarrage?

Par ailleurs, j'ai essayé de monter les partitions, mais je ne vois pas mes fichiers, tout est vide...
Merci

sich
01/09/2016, 19h12
Peut être le gestionnaire de boot qui n'a pas été installé sur les 2 disques ?
Un disque peut être HS ? En rescue que dit le test des partitions ?
Comment est configuré le gestionnaire de démarrage ? Sur le raid je présume, il serait bon de tester en pointant directement sur l'un des disques pour voir si ça démarre.

jvieille
01/09/2016, 18h50
Le support est aux abonnés absents, je tente donc le coup ici.

J'ai eu un pb de disque sur un serveur Soyoustart avec RAID1 soft
J'ai fait ce qui était indiqué à cette page http://guides.ovh.com/RaidSoft avec un peu d'aide du support OVH et tout s'est apparemment bien passé, le statut RAID était OK, disques synchronisés.
Lors d'une mise à jour, j'ai du lancer un redémarrage, le serveur n'est jamais reparti.
Le support OVH est intervenu, a passé le serveur en mode Rescue et m'a dit de me débrouiller:

L'intervention sur ns3010318.ip-94-23-251.eu est terminée.
Cette opération a été achevée le 2016-08-31 08:41:58
Voici les détails de cette opération :
Diagnostic software
Date 2016-08-31 08:28:11, marc S a fait Diagnostic software:
Le server n'arrive pas a booter sur disque.
Reboot en rescue, code d'acces envoye.
Ping ok.
J'ai peut-être oublié une manoeuvre lors de la resynchronisation du RAID?

De plus, le test en rescue indique une erreur mémoire - jamais la même.

ci-dessous quelques tests

Code:
root@rescue:~# df
Filesystem                         1K-blocks      Used  Available Use% Mounted on
aufs                                 8160752     83524    8077228   2% /
devtmpfs                             8159824         0    8159824   0% /dev
178.33.124.65:/home/pub/rescue.v8 2039337712 257927384 1677794944  14% /nfs
tmpfs                                8160752     83524    8077228   2% /rw
178.33.124.65:/home/pub/pro-power 2039337712 257927384 1677794944  14% /power
178.33.124.65:/home/pub/commonnfs 2039337712 257927384 1677794944  14% /common
tmpfs                                8160752         0    8160752   0% /dev/shm
tmpfs                                8160752     18032    8142720   1% /run
tmpfs                                   5120         0       5120   0% /run/lock
tmpfs                                8160752         0    8160752   0% /sys/fs/cgroup
tmpfs                                8160752       184    8160568   1% /tmp
root@rescue:~# ^C
root@rescue:~#
Code:
root@rescue:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sda2[0] sdb2[1]
      511998912 blocks [2/2] [UU]

md3 : active raid1 sda3[0] sdb3[1]
      1439413184 blocks [2/2] [UU]

unused devices: 
Code:
root@rescue:~# mdadm --misc --detail /dev/md2
/dev/md2:
        Version : 0.90
  Creation Time : Thu Sep  3 15:42:17 2015
     Raid Level : raid1
     Array Size : 511998912 (488.28 GiB 524.29 GB)
  Used Dev Size : 511998912 (488.28 GiB 524.29 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Wed Aug 31 08:17:54 2016
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : b29d88dd:19b80a57:a4d2adc2:26fd5302 (local to host rescue.ovh.                                                                                                             net)
         Events : 0.3410641

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
Code:
root@rescue:~# mdadm --misc --detail /dev/md3
/dev/md3:
        Version : 0.90
  Creation Time : Thu Sep  3 15:42:17 2015
     Raid Level : raid1
     Array Size : 1439413184 (1372.73 GiB 1473.96 GB)
  Used Dev Size : 1439413184 (1372.73 GiB 1473.96 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 3
    Persistence : Superblock is persistent

    Update Time : Wed Aug 31 08:17:54 2016
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : b1aca4da:d1b59dac:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
         Events : 0.10809

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       19        1      active sync   /dev/sdb3
Code:
root@rescue:~# fdisk -l

Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5385BB13-CD8D-40FD-8287-DFA812EDED79

Device          Start        End    Sectors    Size Type
/dev/sdb1          40       2048       2009 1004.5K BIOS boot
/dev/sdb2        4096 1024002047 1023997952  488.3G Linux RAID
/dev/sdb3  1024002048 3902828543 2878826496    1.3T Linux RAID
/dev/sdb4  3902828544 3907020799    4192256      2G Linux swap

Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5385BB13-CD8D-40FD-8287-DFA812EDED79

Device          Start        End    Sectors    Size Type
/dev/sda1          40       2048       2009 1004.5K BIOS boot
/dev/sda2        4096 1024002047 1023997952  488.3G Linux RAID
/dev/sda3  1024002048 3902828543 2878826496    1.3T Linux RAID
/dev/sda4  3902828544 3907020799    4192256      2G Linux swap

Disk /dev/md3: 1.3 TiB, 1473959100416 bytes, 2878826368 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/md2: 488.3 GiB, 524286885888 bytes, 1023997824 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Merci pour l'aide