OVH Community, votre nouvel espace communautaire.

Savoir si mes disques sont en raid ?


Nowwhat
19/08/2015, 17h09
Citation Envoyé par arn0
...
Pourquoi avoir désactiver "smartctl" sur les vielles versions ? Même sur les anciens Ubuntu ?
Car il fallu être 'barbu' et hyper 'geek' pour le faire fonctionner.

Aujourd'hui, smartctl est fournie avec une base des données de toutes les disques (ou presque). smartctl va reconnaitre votre disque, et par magie, il va produire des résultats.

Avant, il fallu d'abord "instruire" (aussi connu comme 'paramétrer') smartctl avant qu'il fonctionne.

Puis, avant, NOUS, on s'occupe des sauvegardes et OVH remplace le disque dès qu'il explose.
Aujourd’hui : smartctl permet d'avoir quelques minutes - heures avant les données deviennent définitivement illisibles ....

Aussi : avant : smartctl : si tu pense en avoir besoin, alors :=> hoppa, tu l'installe ....

A ce jour, toutes les OS ont "mdadm" installé - très utile, voir indispensable dès que vous avez un RAID.
QUI l'utilise pour vérifier le sync de ces disques RAID1 ? ( http://www.test-domaine.fr/munin/pap...rg/iostat.html ) avec mail en cas d'urgence ??

arn0
19/08/2015, 16h40
Citation Envoyé par MaikoB
Bonjour,

Sur les vielles installation smartcl est désactivé.

Il faut bien vérifier que l'OS est à jour et ensuite tu peux réactiver smartctl :

chmod +x /usr/sbin/smartctl

et faire les commandes :

smartctl -a /dev/sda
smartctl -a /dev/sdb
smartctl -a /dev/sdc
smartctl -a /dev/sdd

Ainsi que :

fdisk -l

Si je comprend bien, tu veux "casser" le RAID des disques 2To ?

Cordialement,
Bonjour,

Pourquoi avoir désactiver "smartctl" sur les vielles versions ? Même sur les anciens Ubuntu ?

MaikoB
19/08/2015, 16h00
Bonjour,

Sur les vielles installation smartcl est désactivé.

Il faut bien vérifier que l'OS est à jour et ensuite tu peux réactiver smartctl :

chmod +x /usr/sbin/smartctl

et faire les commandes :

smartctl -a /dev/sda
smartctl -a /dev/sdb
smartctl -a /dev/sdc
smartctl -a /dev/sdd

Ainsi que :

fdisk -l

Si je comprend bien, tu veux "casser" le RAID des disques 2To ?

Cordialement,

Nowwhat
15/08/2015, 08h51
Oh, si, de nom, oui.

Va le trouver ici : https://upload.wikimedia.org/wikiped...n_Timeline.svg

polop
14/08/2015, 18h51
tu ne sais pas ce qu'est la distrib Linux Centos ?

Nowwhat
14/08/2015, 16h58
Pas vraiment.
Comme c'est dit: ça pu.
Si t'es "root" et t'as pas le droit d'exécuter smartctl il y a un soucis majeur. Pour moi, ton OS est à deux doigts de claquer.
Mais bon, je ne sais pas ce que c'est : Centos.

T'a compris que "cat /proc/mdstat " t'informe que un des deux disques en en dehors du Raid ? (le /sda)
Pense à exécuter ce 'commande' souvent, par exemple avec un script (Munin le fait bien) car il faut le surveiller.

Ton /sdb est la seul partie qui gère ton Raid1 - le disque /sda est probablement problématiquement.

Je n'ai pas trop compris concernant le /sdc et /sdd - t'as donc 4 disques dans ton serveur ?

Va voir dans /etc/fstab comment ce 4 disques sont montés, et dans les logs pourquoi il ne sont pas montés.

Pense a 'jouer' avec le Raid1 (dès qu'il remarche : http://denisrosenkranz.com/tuto-mdad...raid-logiciel/
C'est mieux de savoir gérer tout ça avant que ça foire

PS : normalement, t'auras peu de pertes car 'as des sauvegardes. Si ce n'est pas normal (= pas de sauvegardes) dans c'est cas ... disons, allume des bougies. Un max de bougies.

polop
14/08/2015, 16h25
personne ne peut m'aider ?

Merci.

polop
12/08/2015, 22h44
Merci.

Donc si je comprends bien, sda et sdb ne sont plus en raid ?

J'étais persuadé qu'ils l'étaient.

Mais ma priorité c'est sdb et sdc (les diqques de 2To). C'est ceux la que je veux séparer si ils sont en raid pour avoir 2 fois 2To dispo plutot qu'un raid de 1To composé des deux disques.

C'est possible (sans perdre les données) ???

Ensuite je verrais pour réparer le raid sda et sdb (pour l'instant ca fonctionne....)


Pour ce qui est des deux commandes que tu m'as demandé (les smartctl -a /dev/sda ) il me répond
-bash: /usr/sbin/smartctl: Permission non accordée

pour les deux alors que je suis en root... sous centos !

Nowwhat
12/08/2015, 07h58
Et maintenant, faire parler test disques.

smartctl -a /dev/sda
puis
smartctl -a /dev/sdb

Si tu trouve deux fois :
..
SMART Error Log Version: 1
No Errors Logged
...
ça va .... mais j'ai peur que t'auras une liste avec des erreurs quand tu questionne sda.
d'où la raison que /sda est sortie du raid1.

polop
12/08/2015, 00h07
Merci de ton aide.

Voici les élements demandés !

Merci.

Code:
 echo p | fdisk /dev/sda

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c') and change display units to
         sectors (command 'u').

Commande (m pour l'aide):
Disque /dev/sda: 120.0 Go, 120034123776 octets
255 têtes, 63 secteurs/piste, 14593 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Identifiant de disque : 0x000f2bcb

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sda1   *           1        2550    20478976   fd  Linux raid autodetect
/dev/sda2            2550       14528    96211968   fd  Linux raid autodetect
/dev/sda3           14528       14593      523264   82  Linux swap / Solaris

Commande (m pour l'aide): Commande (m pour l'aide): Commande (m pour l'aide):
EOF (fin de fichier) obtenue 3 fois - fin du programme...
Code:
echo p | fdisk /dev/sdb

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c') and change display units to
         sectors (command 'u').

Commande (m pour l'aide):
Disque /dev/sdb: 120.0 Go, 120034123776 octets
255 têtes, 63 secteurs/piste, 14593 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Identifiant de disque : 0x0000534b

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdb1   *           1        2550    20478976   fd  Linux raid autodetect
/dev/sdb2            2550       14528    96211968   fd  Linux raid autodetect
/dev/sdb3           14528       14593      523264   82  Linux swap / Solaris

Commande (m pour l'aide): Commande (m pour l'aide): Commande (m pour l'aide):
EOF (fin de fichier) obtenue 3 fois - fin du programme...
Code:
echo p | fdisk /dev/sdc

ATTENTION : identifiant de table de partitions GPT (GUID) detecté sur "/dev/sdc" ! L'utilitaire fdisk ne supporte pas GPT. Utilisez GNU Parted.


The device presents a logical sector size that is smaller than
the physical sector size. Aligning to a physical sector (or optimal
I/O) size boundary is recommended, or performance may be impacted.

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c') and change display units to
         sectors (command 'u').

Commande (m pour l'aide):
Disque /dev/sdc: 2000.4 Go, 2000398934016 octets
255 têtes, 63 secteurs/piste, 243201 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Identifiant de disque : 0x00000000

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdc1               1      243202  1953514583+  ee  GPT
Partition 1 does not start on physical sector boundary.

Commande (m pour l'aide): Commande (m pour l'aide): Commande (m pour l'aide):
EOF (fin de fichier) obtenue 3 fois - fin du programme...
Code:
echo p | fdisk /dev/sdd

ATTENTION : identifiant de table de partitions GPT (GUID) detecté sur "/dev/sdd" ! L'utilitaire fdisk ne supporte pas GPT. Utilisez GNU Parted.


The device presents a logical sector size that is smaller than
the physical sector size. Aligning to a physical sector (or optimal
I/O) size boundary is recommended, or performance may be impacted.

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c') and change display units to
         sectors (command 'u').

Commande (m pour l'aide):
Disque /dev/sdd: 2000.4 Go, 2000398934016 octets
255 têtes, 63 secteurs/piste, 243201 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Identifiant de disque : 0x00000000

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdd1               1      243202  1953514583+  ee  GPT
Partition 1 does not start on physical sector boundary.

Commande (m pour l'aide): Commande (m pour l'aide): Commande (m pour l'aide):
EOF (fin de fichier) obtenue 3 fois - fin du programme...

fritz2cat
07/08/2015, 21h05
md1 : active raid1 sdb1[1]
20478912 blocks [2/1] [_U]
md2 : active raid1 sdb2[1]
96211904 blocks [2/1] [_U]
ça pue... tu dois avoir un sda qui est crashé.

Il y a aussi un sdc qui doit exister quelque part, du fait que tu as un sdd.

Pour chacun des disques sda, sdb, sdc sdd fais la commande suivante:

echo p | fdisk /dev/sda

polop
07/08/2015, 20h36
Bonjour et merci de vos réponses.

Voici les résultats de ces commandes.

J'ai deux ssd 120 go qui sont normalement en raid et pour les deux disques je ne sais pas.

df -h:
Filesystem Size Used Avail Use% Mounted on
rootfs 20G 4,5G 14G 25% /
/dev/root 20G 4,5G 14G 25% /
devtmpfs 32G 284K 32G 1% /dev
/dev/md2 92G 75G 12G 87% /var
tmpfs 32G 0 32G 0% /dev/shm
/dev/sdd1 1,8T 1,7T 89G 95% /disk1
/dev/root 20G 4,5G 14G 25% /var/named/chroot/etc/named
/dev/md2 92G 75G 12G 87% /var/named/chroot/var/named
/dev/root 20G 4,5G 14G 25% /var/named/chroot/etc/named.rfc1912.zones
/dev/root 20G 4,5G 14G 25% /var/named/chroot/etc/rndc.key
/dev/root 20G 4,5G 14G 25% /var/named/chroot/usr/lib64/bind
/dev/root 20G 4,5G 14G 25% /var/named/chroot/etc/named.iscdlv.key
/dev/root 20G 4,5G 14G 25% /var/named/chroot/etc/named.root.key



df :
Filesystem 1K-blocks Used Available Use% Mounted on
rootfs 20317384 4673852 14619588 25% /
/dev/root 20317384 4673852 14619588 25% /
devtmpfs 32970488 284 32970204 1% /dev
/dev/md2 95452964 78380732 12261640 87% /var
tmpfs 33003876 0 33003876 0% /dev/shm
/dev/sdd1 1833648644 1740957200 92691444 95% /disk1
/dev/root 20317384 4673852 14619588 25% /var/named/chroot/etc/named
/dev/md2 95452964 78380732 12261640 87% /var/named/chroot/var/named
/dev/root 20317384 4673852 14619588 25% /var/named/chroot/etc/named.rfc1912.zones
/dev/root 20317384 4673852 14619588 25% /var/named/chroot/etc/rndc.key
/dev/root 20317384 4673852 14619588 25% /var/named/chroot/usr/lib64/bind
/dev/root 20317384 4673852 14619588 25% /var/named/chroot/etc/named.iscdlv.key
/dev/root 20317384 4673852 14619588 25% /var/named/chroot/etc/named.root.key

cat /proc/mdstat :
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sdb1[1]
20478912 blocks [2/1] [_U]
md2 : active raid1 sdb2[1]
96211904 blocks [2/1] [_U]
unused devices:

fritz2cat
05/08/2015, 21h55
Peux-tu poster la réponse de ces commandes ?

df
cat /proc/mdstat

buddy
05/08/2015, 21h52
Bonjour,

et que renvoie df -h ?
Tu as quel type de serveur ?
Raid soft ? hard ?

polop
05/08/2015, 17h21
Bonjour à tous.

J'ai un dédié de chez ovh depuis longtemps et je ne sais plus si mes disques durs sont en raid ou pas ( je manque de place sur un seul et j'aimerais utiliser les deux disques séparéments).

Il y a un moyen de savoir si mes j'ai des disques en raid et si oui lesquels ? j'ai essayé avec mdadm -q sans succés.

Et si oui c'est possible de déraider deux disques sans perdre les données de l'un des deux ?

Merci à tous pour votre aide.