OVH Community, votre nouvel espace communautaire.

VPS 2016 instable (Strasbourg SBG1)


EtienneMenguy
26/09/2016, 17h43
Citation Envoyé par sich
Une instance public cloud que j'ai du reboot et qui mouline toujours sur SBG.... Test sur la partition système avec la commande dd :

314572800 bytes (315 MB) copied, 334.802 s, 940 kB/s

test lancé à 15H43 et qui s'est terminé à 15H48.

clap clap.... Comment voulez vous qu'on bosse avec ça ? Et ne commencez pas à me sortir que ça vient de mon instance...
Ca correspond à la période où un serveur du cluster éteint retournait dans le cluster, Ceph véfirie l'intégrité des données ce qui bloque temporairement certains IO. Malheureusement pour le moment est il n'est pas possible d'éviter cet impact sur les performances tout en s'assurant de l'intégrité des données.

C'est une modération automatique, probablement liée à ton faible nombre de messages.

Ticettac
26/09/2016, 16h14

Ticettac
26/09/2016, 16h13
Bonjour,

De mon côté, j'ai abandonné et commandé un serveur dédié pour tout déménager. Je n'ai de toute manière plus confiance en leurs VPS. Ils ne maitrisent pas leur infrastructure vu le temps que ça prend...

sich
26/09/2016, 16h08
Une instance public cloud que j'ai du reboot et qui mouline toujours sur SBG.... Test sur la partition système avec la commande dd :

314572800 bytes (315 MB) copied, 334.802 s, 940 kB/s

test lancé à 15H43 et qui s'est terminé à 15H48.

clap clap.... Comment voulez vous qu'on bosse avec ça ? Et ne commencez pas à me sortir que ça vient de mon instance...

virtubox
22/09/2016, 02h49
Citation Envoyé par Ticettac
Bonjour,

Un "IOTop" montre que votre disque dur sature très vite ([jbd2/vda1-8] à 99%)...pour un affichage d'une boutique Prestashop avec système de cache c'est très étrange.
En tout cas, vos actions de vendredi puis sur l'instance ont amélioré la situation sans pour autant supprimer les lenteurs. Preuve que la capacité technique ne suit pas...

Bref, je vais sérieusement penser à vous rendre vos VPS, au profit de serveurs dédiés ici ou ailleurs.
Alors pour les VPS Cloud, le storage Ceph est effectivement très lent malgré le caching NVMe et du coup ils ne sont pas recommendable pour de l'hébergement web. Il faut repasser sur un VPS SSD pour avoir des IOPs jusqu'à x120 meilleures.

l'explication : https://www.ovh.com/fr/news/articles...r-public-cloud

Ticettac
21/09/2016, 15h17
Bonjour,

Un "IOTop" montre que votre disque dur sature très vite ([jbd2/vda1-8] à 99%)...pour un affichage d'une boutique Prestashop avec système de cache c'est très étrange.
En tout cas, vos actions de vendredi puis sur l'instance ont amélioré la situation sans pour autant supprimer les lenteurs. Preuve que la capacité technique ne suit pas...

Bref, je vais sérieusement penser à vous rendre vos VPS, au profit de serveurs dédiés ici ou ailleurs.

EtienneMenguy
21/09/2016, 10h01
Pour la différence de stockage réelle/affichée, on n'accède pas à votre serveur on ne peut donc pas connaitre l'utilisation réelle de votre disque.
Cependant une image de votre disque est crée sur le cluster Ceph et on connait la taille de celle-ci.

Si votre disque fait 20Go et que vous ecrivez 10Go, on stocke 30Go. On affiche donc 30Go.
Cependant si vous supprimez 5Go, on stocke toujours 30Go (on peut augmenter la taille de l'image, mais pas la réduire), on affiche alors toujours 30Go alors que vous n'en utilisez que 25.

Pour les performances, je pense que vous avez atteint le limites des performances du stockage qui vous sont allouées. Je ne connais pas les ressources demandées par un plesk et un prestashop mais cela ne semble pas léger.
Je vous conseille de trouver ce qui consomme des IO et d'améliorer la configuration.

[edit]J'ai une petite augmentation de la latence depuis ce matin, je fixe ça. mais je doute que ca ait un énorme impacte

Ticettac
20/09/2016, 19h09
Bon j'ai pas envie d'attendre demain tellement que c'est énervant. Alors, c'est un poil mieux mais il y a toujours de longs chargements par moment....
Ya t-il un rapport avec le souci ? : Sur mon manager, l'espace disque du VPS indique : 48.18 Gio / 50 Gio alors que 16 go seulement sont utilisés.

La preuve :

Code:
 df -k
Filesystem     1K-blocks     Used Available Use% Mounted on
/dev/vda1       51474044 16003544  32849704  33% /
tmpfs            1913104        0   1913104   0% /dev/shm

Ticettac
20/09/2016, 18h21
Je reviens vers vous demain pour vous dire si ça va mieux.

EtienneMenguy
20/09/2016, 16h48
Migration faite, faites moi un en ayant attendu une petite heure. merci

Ticettac
20/09/2016, 15h36
vps223003

sich
20/09/2016, 15h23
Citation Envoyé par EtienneMenguy
Avec ioping j'ai testé le temps de réaction du cluster, parfois un ping met plus d'une seconde (environ tous les 100 pings).

Vous avez de problème de performances de manière peu ou très régulière?
ça expliquerait bien les problèmes que j'ai pu avoir sur l'un de mes sites.... Où parfois une modif sur la bdd pouvait prendre 2/3 sec.... Et 30 sec après tout répond parfaitement bien...

EtienneMenguy
20/09/2016, 15h21
J'aimerai migrer votre instance vers un autre serveur. Ca provoquera une indisponibilité pendant quelques secondes.

Si vous êtes d'accord donnez moi l'id de votre vps.

Ticettac
20/09/2016, 15h11
Le problème est très fréquent. Un chargement de page sur 3 environ.

EtienneMenguy
20/09/2016, 14h55
Avec ioping j'ai testé le temps de réaction du cluster, parfois un ping met plus d'une seconde (environ tous les 100 pings).

Vous avez de problème de performances de manière peu ou très régulière?

Ticettac
20/09/2016, 14h17
Sur ce VPS, nous avons que 300 visiteurs par jour sur une boutique sous Prestashop.

Il est donc très improbable que nous utilisions toutes les capacités serveur. Sans compter que d'autres clients ont les mêmes lenteurs et que c'est un peu mieux depuis votre augmentation de cluster de stockage dans la nuit de vendredi à samedi. Tout porte à croire que le souci est matériel.

EtienneMenguy
20/09/2016, 13h33
Pas encore tout vérifié. Mais à mon avis il arrive que vous saturez par moments les IO auxquelles vous avez droit. Du coup vous vous retrouvez avec de l'iowait.

je dois faire plus de vérifications.

Ticettac
20/09/2016, 12h47
EtienneMenguy ça a donné quelque chose vos tests ? Ca rend fou ces lenteurs !

Ticettac
20/09/2016, 09h20
Bonjour. Il s'agit d'un VPS 2016 Cloud 2 à Strasbourg SBG1
Zone : os-sbg1-003
Cluster : cluster-001

EtienneMenguy
20/09/2016, 09h06
Citation Envoyé par Ticettac
Encore des stats (le IDLE qui monte à 99 % c'est normal ça ?)
Code:
 
Device:           %util
vda                 99.80
Le disque sature, je vais faire des tests ce matin. Vous avez un vps 1 2 ou 3?

sich
20/09/2016, 08h19
Citation Envoyé par Ticettac
La commande "dd" pendant une instabilité :

dd if=/dev/zero of=/root/speedtest bs=1M count=300 conv=fdatasync
300+0 records in
300+0 records out
314572800 bytes (315 MB) copied, 6.86052 s, 45.9 MB/s

PUIS

dd if=/dev/zero of=/root/speedtest bs=1M count=300 conv=fdatasync
300+0 records in
300+0 records out
314572800 bytes (315 MB) copied, 29.5754 s, 10.6 MB/s
Faut pas s'étonner que ça mouline avec des chiffres comme ça...
C'est un problème sur l'host qui est trop chargé, ou le cluster de stockage. Mais c'est quasiment impossible de le faire reconnaitre par OVH...
Perso je suis entrain de me demander si je vais pas prendre 2 serveurs dédiés dans la gamme hosting avec un NAS et me faire mes propres VPS vu les soucis d'instabilité sur le stockage...

J'ai plusieurs VM (y comprit public cloud) sur SBG qui ont des soucis depuis plusieurs jours, celles sur GRA n'ont aucun soucis (en ce moment).

Le soucis du VPS c'est que ça reste de la mutualisation, par conséquent si un voisin consomme beaucoup ben nos VM se mettent à mouliner...

Mais Ticettac ne cherche pas plus loin, ton soucis vient du stockage qui mouline, et tu ne peux rien y faire...

Ticettac
19/09/2016, 18h06
Encore des stats (le IDLE qui monte à 99 % c'est normal ça ?)


Code:
 iostat -x 1
Linux 2.6.32-573.8.1.el6.x86_64 09/19/2016      _x86_64_        (2 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           3.49    0.01    0.86   12.36    0.00   83.28

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.11    39.59    1.02   13.79    29.87   424.22    30.65     0.44   29.84   25.51   30.16  17.74  26.28

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           3.52    0.00    1.01   47.24    0.00   48.24

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    48.00    0.00   15.00     0.00   496.00    33.07     1.10   70.53    0.00   70.53  66.53  99.80

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          53.00    0.00   11.00   14.00    0.00   22.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00  1091.00    3.00  183.00    40.00 10136.00    54.71     0.68    4.75    4.00    4.77   2.47  46.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.58    0.00    1.01   41.41    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00   830.69    0.00  181.19     0.00  8095.05    44.68     1.00    2.20    0.00    2.20   4.58  83.07

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           3.50    0.00    1.00   20.00    0.00   75.50

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    24.00    1.00   14.00    24.00   288.00    20.80     0.42   68.33   18.00   71.93  28.07  42.10

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00    0.00    0.00   99.50

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     8.00    0.00    1.00     0.00    72.00    72.00     0.00    3.00    0.00    3.00   3.00   0.30

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50    0.50    0.00   99.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    24.00    0.00   14.00     0.00   288.00    20.57     0.02    1.71    0.00    1.71   1.71   2.40

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00    1.51    0.00   98.49

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    10.00    0.00    8.00     0.00   144.00    18.00     0.03    4.00    0.00    4.00   4.00   3.20

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.50    1.98    0.00   97.03

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     1.00    0.00    8.00     0.00    72.00     9.00     0.03    4.25    0.00    4.25   4.25   3.40

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00    2.53    0.00   97.47

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     1.00    0.00    4.00     0.00    40.00    10.00     0.06   14.00    0.00   14.00  14.00   5.60

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   37.00    0.00   63.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    47.00    0.00  106.00     0.00  1224.00    11.55     0.93    1.82    0.00    1.82   6.97  73.90

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.50    3.48    0.00   95.52

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    1.00     0.00     8.00     8.00     0.08  811.00    0.00  811.00  76.00   7.60

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           2.51    0.00    4.02    0.50    0.00   92.96

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     1.00    0.00    4.00     0.00    40.00    10.00     0.01    2.00    0.00    2.00   2.00   0.80

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          14.57    0.00    4.02   37.69    0.00   43.72

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    87.00    0.00   25.00     0.00   896.00    35.84     0.89   24.56    0.00   24.56  35.36  88.40

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          10.00    0.00    1.50   49.00    0.00   39.50

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00   757.00    0.00  109.00     0.00  6928.00    63.56     1.18    6.74    0.00    6.74   9.03  98.40

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.75    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     1.00    0.00    1.00     0.00    16.00    16.00     1.00    1.00    0.00    1.00 1000.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           9.50    0.00    3.00   43.00    0.00   44.50

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.25    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.10

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50   49.50    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.75    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   49.75    0.00   50.25

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.50    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.10

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50   49.50    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          12.06    0.00    2.51   43.72    0.00   41.71

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00   165.00    0.00   39.00     0.00  1632.00    41.85     0.99  296.62    0.00  296.62  25.15  98.10

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          56.00    0.00    9.50    0.50    0.00   34.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    10.00    0.00    5.00     0.00   120.00    24.00     0.06   41.60    0.00   41.60  12.80   6.40

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          28.64    0.00    4.02    1.01    0.00   66.33

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    20.00    0.00   14.00     0.00   256.00    18.29     0.08    5.50    0.00    5.50   5.43   7.60

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50    0.50    0.00   99.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    19.00    0.00   10.00     0.00   216.00    21.60     0.02    2.00    0.00    2.00   1.70   1.70

Ticettac
19/09/2016, 17h57
Au passage, un autre client qui se plaint (et qui nous dit que vous donner des chiffres ne fait pas avancer la résolution des soucis...) : https://forum.ovh.com/showthread.php...l=1#post679344

Voilà des lignes iostat -x 1 pendant une instabilité :


Code:
avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.75    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.99    0.00    0.00    0.00   0.00  99.01

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   49.75    0.00   50.25

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50   49.75    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.50    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.10

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   49.75    0.00   50.25

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50   49.75    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    32.00    0.00    8.00     0.00   320.00    40.00     1.00    0.38    0.00    0.38 125.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.50    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    58.00    0.00    9.00     0.00   528.00    58.67     1.25 3517.33    0.00 3517.33 110.78  99.70

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          40.40    0.00    6.57   18.69    0.00   34.34

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00   230.00    0.00  160.00     0.00  2976.00    18.60     1.28   11.12    0.00   11.12   4.84  77.50

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          71.64    0.00   20.90    2.99    0.00    4.48

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    52.00    5.00   12.00    40.00   512.00    32.47     0.31    2.71    5.40    1.58  10.53  17.90

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          14.07    0.00    3.02   39.20    0.00   43.72

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    4.00    1.00    32.00     8.00     8.00     2.15   29.60   37.00    0.00 200.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     2.06    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     3.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          18.50    0.00    4.00   21.50    0.00   56.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    27.00    2.00   34.00    16.00   472.00    13.56     1.40  242.19 1769.00  152.38  15.64  56.30

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00    0.00    0.00   99.50

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.50    5.53    0.00   93.47

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00   131.00    0.00   59.00     0.00  1472.00    24.95     0.19    3.22    0.00    3.22   2.32  13.70

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.00    0.00    2.50   19.50    0.00   77.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00   436.00    0.00   67.00     0.00  4024.00    60.06     0.41    1.42    0.00    1.42   5.76  38.60

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   50.00    0.00   50.00

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.50    0.00    0.00   49.75    0.00   49.75

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.00   49.75    0.00   50.25

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     1.00    0.00    0.00    0.00   0.00 100.00

EtienneMenguy
19/09/2016, 17h42
Pendant les instabilités, faire un iostat -x 1 pourrait être utile pour voir si trop d'IO sont demandés au même moment.

Ticettac
19/09/2016, 17h36
La commande "dd" pendant une instabilité :

dd if=/dev/zero of=/root/speedtest bs=1M count=300 conv=fdatasync
300+0 records in
300+0 records out
314572800 bytes (315 MB) copied, 6.86052 s, 45.9 MB/s

PUIS

dd if=/dev/zero of=/root/speedtest bs=1M count=300 conv=fdatasync
300+0 records in
300+0 records out
314572800 bytes (315 MB) copied, 29.5754 s, 10.6 MB/s

EtienneMenguy
19/09/2016, 17h20
Les données qui peuvent nous intéresser pour dire si oui ou non il y a un problème :
iowait du serveur
latence du stockage (ioping)
fio https://www.ovh.com/fr/g1956.tester_...se_des_disques
debit du stockage (dd)

Vous pouvez donner les infos ici ou créer un ticket au support et me donner son numéro.

Ticettac
19/09/2016, 17h08
Merci pour ta contribution Sich, je n'aime pas me sentir seul face aux soucis techniques de ce genre.
De notre côté, ca a l'air un peu plus stable, mais il y a encore parfois des chargements de pages très longs. Ca a l'air légèrement mieux que vendredi. Tout porte donc à croire qu'il un souci matériel chez OVH non ?

Comment faire pour avoir des chiffres fiables pour un souci comme celui-là ?

EtienneMenguy
19/09/2016, 16h56
Ton bench est probablement influencé par les io en cours sur ton serveur.

root@xxx:~# dd if=/dev/zero of=/root/speedtest bs=1M count=300 conv=fdatasync
300+0 records in
300+0 records out
314572800 bytes (315 MB, 300 MiB) copied, 1.80603 s, 174 MB/s

Mais un bench est toujours à prendre des pincettes, il décrit un type de comportement qui ne reflète pas celui du serveur.

sich
19/09/2016, 16h49
Opération Terminée ? Vitesse actuelle sur l'un de mes VPS sur SBG à 23Mo/s...... Le VPS ne fait quasiment rien (heureusement).
J'utilise toujours la commande dd .... pour avoir le débit.
Les stats sont vraiment instables... : http://vps291537.ovh.net/speed.html
D'habitude c'est un peu plus stable que ça quand même...

EtienneMenguy
19/09/2016, 14h25
L'opération est bien terminée.

Sans logs il sera difficile de vous aider, pour vérifier si votre problème est lié au stockage vous pouvez mesurer l'iowait (avec iostat par exemple).

Ticettac
19/09/2016, 12h08
Bonjour. Votre VPS se trouve t-il à Strasbourg SBG1 ? Le problème survient sur l'ensemble du serveur (sites et plesk), ce n'est donc pas le souci de l'admin Plesk.

Le problème persiste ce lundi. La tâche dit pourtant :

80% des données déplacées.
L'opération se terminera dans la nuit de vendredi à samedi.
http://travaux.ovh.net/?do=details&id=20383

lxwfr
16/09/2016, 20h15
moi je rencontre aucun problème particulier, voci l'astuce http://blog.alexonbalangue.me/2016/0...plesk.html?m=1 si votre plesk admin plante ces derniers jours (j'avais le même problème pendant une semaine, j'ai corrigé justement hier)...

Ticettac
16/09/2016, 18h14
Bonjour,

Ça serait super que la résolution de ce souci arrive enfin. Je vous tiendrai au courant sur ce topic.

J'ai des erreurs 500 dans mes logs. J'utilise Plesk et je n'ai pas trouvé de logs avec plus de détails.

EtienneMenguy
16/09/2016, 17h43
Bonjour,

Vos problèmes sont en effet probablement liés à cette intervention. (celle-ci devrait se terminer dans la soirée)

Avez-vous des logs d'erreur sur votre serveur web?

Etienne

sich
16/09/2016, 14h53
Vi, si seulement il n'y avait pas d'agrandissement du cluster de stockage tous les 15 jours

Ticettac
16/09/2016, 14h44
OVH me confirme par ticket que la tâche en cours est bien liée à nos soucis d'accès au serveur. C'est déjà ça, il y a de l'espoir !

sich
16/09/2016, 12h43
Oui c'est vrai que mon vieux vps 2014 est plus stable, mais il a des performances plus faibles.

Ticettac
16/09/2016, 12h28
Merci de me confirmer que cela ne vient pas de nous...car j'ai pris du temps pour tout vérifier.

J'espère que OVH travaille réellement à résoudre ce problème inacceptable...Les VPS 2014 sont bien plus stables. Un comble.

sich
16/09/2016, 12h17
oui pas mal de soucis sur le stockage sur SBG ces derniers jours.
C'est dommage car les offres VPS / Public Cloud sont pas mal, mais l'instabilité du stockage est vraiment pénible à gérer...

Ticettac
16/09/2016, 11h40
Bonjour,

Cela fait plusieurs jours que notre VPS 2016 est instable. Il rame à fond très régulièrement et une erreur 500 s'affiche (erreur serveur). Nous sommes sous Plesk et l'accès à l'espace d'administration plante aussi souvent (pas de rapport avec notre site donc)

C'est très embêtant pour notre activité...Avez-vous le même souci ?

Est-ce cette tâche a un rapport avec le problème et va le résoudre : http://travaux.ovh.net/?do=details&id=20383 ?


Cordialement.