OVH Community, votre nouvel espace communautaire.

Perf Virtual SSD


CBOX
08/10/2015, 11h19
Citation Envoyé par sich
Perso je suis à 200MB/s sur mon vps SSD.... Et j'en suis pleinement satisfait ! Il fonctionne parfaitement et mes sites sont très réactifs.... Après faut jouer sur les caches.... Le VPS SSD3 ayant 8Go de RAM ça aide...
Si 400/500 sur du mutualisé c'est de la mauvaise perf je ne sais plus quoi penser....
Au final même mon VPS Cloud n'as pas d'aussi bonnes perfs (180 de moyenne, bcp plus instable que le vps ssd !).
Pouvez vous me poster vos résultats suivant le test : https://wiki.archlinux.org/index.php/SSD_Benchmarking pour pouvoir comparer avec les miens?

C'est vrai que le prix est très accesible, il faut l'admettre, mais je ne pense pas que les résultats, dans mon cas, correspondent à un VPS ssd pour avoir testé la même chose il y a quelques temps sur un ssd de digitalocean (j'attendais des résultats assez similaire à vrai dire).

Merci de vos réponses en tout cas.

sich
08/10/2015, 10h28
Perso je suis à 200MB/s sur mon vps SSD.... Et j'en suis pleinement satisfait ! Il fonctionne parfaitement et mes sites sont très réactifs.... Après faut jouer sur les caches.... Le VPS SSD3 ayant 8Go de RAM ça aide...
Si 400/500 sur du mutualisé c'est de la mauvaise perf je ne sais plus quoi penser....
Au final même mon VPS Cloud n'as pas d'aussi bonnes perfs (180 de moyenne, bcp plus instable que le vps ssd !).

janus57
07/10/2015, 18h32
Bonjour,

bon bah visiblement les VPS SSD sont soit comme les Classic avant soit vous êtes tombés sur un node avec beaucoup de personnes qui utilise des IO (ce qui est possible).

Et oui les VPS SSD sont sans SLA, donc du moment que vous avez accès au VPS c'est conforme pour le support.

Sinon vous pouvez toujours essayer de tweeter avec https://twitter.com/olesovhcom/with_replies pour voir si il est d'accord avec ce que le support dit.

Perso lors de mon test du VPS SSD, avec la commande DD j'étais à 400/500MB/s tout le temps.

Sinon au passage là les perfs disque sont encore mieux que les Cloud 2014, donc au final c'est pas si mal que ça pour 3€

Cordialement, janus57

Rizz
07/10/2015, 18h32
WOuha.
Perso je vois pas un seul test ou il y aurai des pb.
Soit tu chipotes fort, soit ...

Même les dédiés de l’époque ou tu postais des messages sont moins performant.

CBOX
07/10/2015, 17h31
Bon, selon OVH, tout est Ok et les résultats sont correctes...
Je ne suis pas de leur avis, mais avec des VPS a 3€ par mois, il ne faut peut être pas exiger plus,,,,

https://wiki.archlinux.org/index.php/SSD_Benchmarking

# dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 2.25674 s, 476 MB/s

# echo 3 > /proc/sys/vm/drop_caches

# dd if=tempfile of=/dev/null bs=1M count=1024
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 8.10898 s, 132 MB/s

CBOX
07/10/2015, 16h03
J'ai écrit un ticket.
En tout cas, pour les benchmarks, certains recommande de regarder plutôt fio que dd : http://forum.proxmox.com/threads/231...032#post116032

J'attend la réponse.

CBOX
07/10/2015, 15h58
J'ai écrit un ticket.
En tout cas, pour les benchmarks, certains recommande de regarder plutôt fio que dd : http://forum.proxmox.com/threads/231...032#post116032

engineer
07/10/2015, 15h29
Oui j'avais un problème avec les vps cloud, je pense que c'est réglé, le mien est revenu à la normale (perf dd)

janus57
07/10/2015, 12h53
Bonjour,

simple dans ce cas suffit de remonter le problème au support, j'ai vu sur le twitter de @oles que les VPS Cloud avait un problème de disque en cours de résolution, du coup c'est peut être pareil pour les VPS SSD.

Cordialement, janus57

CBOX
07/10/2015, 11h16
Citation Envoyé par janus57
Bonjour,

faut pas oublier que c'est du mutualisé sans ressources garantie, si vous voulez de bons IOPS et garantie faut aller sur le Public Cloud et pas les VPS.

De plus en situation réel d'usage perso quand j'ai testé cela fonctionné au poil, un bench n'est pas révélateur des usage que l'on va faire, surtout dans le cadre d'un serveur qui en plus est mutualisé avec d'autres clients (plusieurs dizaines voir centaines).

Vous chercher à voir quoi très exactement, le nombre d'IOPS ou juste la latence ?

Je sais que perso pour la latence et les IOPS j'utilise ioping, après je ne sais pas si les iops qu'il indique sont "juste" ou pas.

Exemple sur un KS-1 (Kimsufi, donc HDD) :


Cordialement, janus57
Eummm... mutualisé oui mais on attend quand même des perfs correctes et qui plus est avec des ssd, sinon on part sur de l'hebergment directement....

#ioping -c10 .
4.0 KiB from . (ext4 /dev/vda1): request=1 time=448 us
4.0 KiB from . (ext4 /dev/vda1): request=2 time=679 us
4.0 KiB from . (ext4 /dev/vda1): request=3 time=468 us
4.0 KiB from . (ext4 /dev/vda1): request=4 time=599 us
4.0 KiB from . (ext4 /dev/vda1): request=5 time=527 us
4.0 KiB from . (ext4 /dev/vda1): request=6 time=552 us
4.0 KiB from . (ext4 /dev/vda1): request=7 time=608 us
4.0 KiB from . (ext4 /dev/vda1): request=8 time=567 us
4.0 KiB from . (ext4 /dev/vda1): request=9 time=386 us
4.0 KiB from . (ext4 /dev/vda1): request=10 time=489 us

--- . (ext4 /dev/vda1) ioping statistics ---
10 requests completed in 9.0 s, 1.9 k iops, 7.3 MiB/s
min/avg/max/mdev = 386 us / 532 us / 679 us / 82 us

le ioping n'est pas franchement mieux dans ce cas....

janus57
06/10/2015, 21h25
Bonjour,

si les Cloud sont en SSD NVMe, mais le tout passe par le réseau et c'est aussi du mutualisé comme les VPS SSD.

Il faudrait tester ioping sur les 2 pour voir un peu plus loin que juste le débit avec DD.

Cordialement, janus57

engineer
06/10/2015, 20h44
bonsoir,

j'ai fait un test aujourd'hui aussi sur un vps ssd 1 et un vps cloud 2, j'ai utilisé une ligne fournie par l'équipe ovh :
dd bs=128k count=4096 if=/dev/zero of=test conv=fdatasync

sous le ssd 1 : +/- 400 MB/s
sous le cloud 2 : +/- 250 MB/s

Les disques des cloud n'étaient pas des SSD ?

janus57
06/10/2015, 19h59
Bonjour,

faut pas oublier que c'est du mutualisé sans ressources garantie, si vous voulez de bons IOPS et garantie faut aller sur le Public Cloud et pas les VPS.

De plus en situation réel d'usage perso quand j'ai testé cela fonctionné au poil, un bench n'est pas révélateur des usage que l'on va faire, surtout dans le cadre d'un serveur qui en plus est mutualisé avec d'autres clients (plusieurs dizaines voir centaines).

Vous chercher à voir quoi très exactement, le nombre d'IOPS ou juste la latence ?

Je sais que perso pour la latence et les IOPS j'utilise ioping, après je ne sais pas si les iops qu'il indique sont "juste" ou pas.

Exemple sur un KS-1 (Kimsufi, donc HDD) :
ioping -c10 .
[…]
--- . (ext4 /dev/root) ioping statistics ---
10 requests completed in 9002.5 ms, 8065 iops, 31.5 mb/s
min/avg/max/mdev = 0.1/0.1/0.1/0.0 ms
Cordialement, janus57

CBOX
06/10/2015, 19h50
seq-read: (g=0): rw=read, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=4
rand-read: (g=1): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=4
seq-write: (g=2): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=4
rand-write: (g=3): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=4
fio-2.1.2
Starting 4 processes
seq-read: Laying out IO file(s) (1 file(s) / 1024MB)
Jobs: 1 (f=1): [___w] [57.2% done] [0KB/4000KB/0KB /s] [0/1000/0 iops] [eta 03m:00s]
seq-read: (groupid=0, jobs=1): err= 0: pid=20563: Tue Oct 6 19:44:57 2015
read : io=240280KB, bw=4004.5KB/s, iops=1001, runt= 60004msec
slat (usec): min=4, max=1564, avg=31.85, stdev=14.57
clat (usec): min=141, max=17218, avg=3957.02, stdev=277.86
lat (usec): min=205, max=17250, avg=3989.97, stdev=277.70
clat percentiles (usec):
| 1.00th=[ 3728], 5.00th=[ 3856], 10.00th=[ 3888], 20.00th=[ 3920],
| 30.00th=[ 3920], 40.00th=[ 3952], 50.00th=[ 3952], 60.00th=[ 3984],
| 70.00th=[ 3984], 80.00th=[ 4016], 90.00th=[ 4048], 95.00th=[ 4080],
| 99.00th=[ 4192], 99.50th=[ 4320], 99.90th=[ 5984], 99.95th=[ 7264],
| 99.99th=[13504]
bw (KB /s): min= 3936, max= 4760, per=100.00%, avg=4008.00, stdev=70.08
lat (usec) : 250=0.08%, 500=0.15%, 750=0.01%, 1000=0.01%
lat (msec) : 2=0.03%, 4=73.61%, 10=26.09%, 20=0.03%
cpu : usr=1.22%, sys=5.67%, ctx=60038, majf=0, minf=30
IO depths : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=60070/w=0/d=0, short=r=0/w=0/d=0
rand-read: (groupid=1, jobs=1): err= 0: pid=20564: Tue Oct 6 19:44:57 2015
read : io=240132KB, bw=4001.1KB/s, iops=1000, runt= 60004msec
slat (usec): min=4, max=1123, avg=33.69, stdev=13.78
clat (usec): min=212, max=9215, avg=3956.65, stdev=224.54
lat (usec): min=222, max=9280, avg=3991.47, stdev=224.07
clat percentiles (usec):
| 1.00th=[ 3760], 5.00th=[ 3856], 10.00th=[ 3888], 20.00th=[ 3920],
| 30.00th=[ 3920], 40.00th=[ 3952], 50.00th=[ 3952], 60.00th=[ 3984],
| 70.00th=[ 3984], 80.00th=[ 4016], 90.00th=[ 4048], 95.00th=[ 4080],
| 99.00th=[ 4192], 99.50th=[ 4704], 99.90th=[ 5984], 99.95th=[ 6560],
| 99.99th=[ 7520]
bw (KB /s): min= 3744, max= 4808, per=100.00%, avg=4005.24, stdev=78.81
lat (usec) : 250=0.02%, 500=0.17%, 750=0.01%, 1000=0.01%
lat (msec) : 2=0.02%, 4=74.20%, 10=25.58%
cpu : usr=1.30%, sys=5.88%, ctx=60001, majf=0, minf=26
IO depths : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=60033/w=0/d=0, short=r=0/w=0/d=0
seq-write: (groupid=2, jobs=1): err= 0: pid=20566: Tue Oct 6 19:44:57 2015
write: io=240756KB, bw=4012.4KB/s, iops=1003, runt= 60004msec
slat (usec): min=5, max=4256, avg=40.87, stdev=49.84
clat (usec): min=163, max=8903, avg=3940.02, stdev=253.05
lat (usec): min=181, max=8933, avg=3982.06, stdev=252.09
clat percentiles (usec):
| 1.00th=[ 3696], 5.00th=[ 3856], 10.00th=[ 3888], 20.00th=[ 3920],
| 30.00th=[ 3920], 40.00th=[ 3952], 50.00th=[ 3952], 60.00th=[ 3984],
| 70.00th=[ 3984], 80.00th=[ 4016], 90.00th=[ 4016], 95.00th=[ 4048],
| 99.00th=[ 4128], 99.50th=[ 4192], 99.90th=[ 5408], 99.95th=[ 6176],
| 99.99th=[ 7136]
bw (KB /s): min= 3976, max= 5400, per=100.00%, avg=4015.92, stdev=128.23
lat (usec) : 250=0.10%, 500=0.21%, 750=0.02%, 1000=0.01%
lat (msec) : 2=0.07%, 4=79.03%, 10=20.56%
cpu : usr=1.17%, sys=6.58%, ctx=60117, majf=0, minf=24
IO depths : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=60189/d=0, short=r=0/w=0/d=0
rand-write: (groupid=3, jobs=1): err= 0: pid=20567: Tue Oct 6 19:44:57 2015
write: io=240292KB, bw=4004.7KB/s, iops=1001, runt= 60004msec
slat (usec): min=3, max=4196, avg=39.71, stdev=55.57
clat (usec): min=169, max=10828, avg=3948.48, stdev=220.97
lat (usec): min=195, max=10858, avg=3989.19, stdev=220.86
clat percentiles (usec):
| 1.00th=[ 3760], 5.00th=[ 3856], 10.00th=[ 3888], 20.00th=[ 3920],
| 30.00th=[ 3920], 40.00th=[ 3952], 50.00th=[ 3952], 60.00th=[ 3952],
| 70.00th=[ 3984], 80.00th=[ 4016], 90.00th=[ 4016], 95.00th=[ 4048],
| 99.00th=[ 4128], 99.50th=[ 4256], 99.90th=[ 5984], 99.95th=[ 6688],
| 99.99th=[ 7776]
bw (KB /s): min= 3976, max= 4808, per=100.00%, avg=4007.87, stdev=74.44
lat (usec) : 250=0.01%, 500=0.18%, 750=0.01%, 1000=0.01%
lat (msec) : 2=0.06%, 4=79.43%, 10=20.30%, 20=0.01%
cpu : usr=0.38%, sys=6.95%, ctx=60257, majf=0, minf=21
IO depths : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=60073/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
READ: io=240280KB, aggrb=4004KB/s, minb=4004KB/s, maxb=4004KB/s, mint=60004msec, maxt=60004msec

Run status group 1 (all jobs):
READ: io=240132KB, aggrb=4001KB/s, minb=4001KB/s, maxb=4001KB/s, mint=60004msec, maxt=60004msec

Run status group 2 (all jobs):
WRITE: io=240756KB, aggrb=4012KB/s, minb=4012KB/s, maxb=4012KB/s, mint=60004msec, maxt=60004msec

Run status group 3 (all jobs):
WRITE: io=240292KB, aggrb=4004KB/s, minb=4004KB/s, maxb=4004KB/s, mint=60004msec, maxt=60004msec

Disk stats (read/write):
vda: ios=120155/120383, merge=2/36, ticks=472853/476430, in_queue=948750, util=99.71%


Bon, même avec ce test, les résultats ne paraissent pas ok pour du ssd... ou alors il y a une grosse limitation...

CBOX
06/10/2015, 19h39
Citation Envoyé par janus57
Bonjour,

quel chiffres exactement ne vous paraissent pas bon ?

Avez-vous vu ça : https://github.com/radii/fio/blob/ma...mples/ssd-test ?

Savez-vous que les SSD ne support pas une queue de 64 (sauf certaines NVMe, ce qui n'est pas le cas des VPS SSD) ?

Cordialement, janus57
Bonjour

Les iops parraissent très bas et le taux de lecture/écriture aussi pour du SSD.
Ce test, je l'ai trouvé sur le forum de proxmox, mais effectivement je ne sais pas s'il convient pour du SSD, je vais voir celui que vous m'avez envoyé en tout cas pour avoir des résultats plus raisonable.

Merci

janus57
06/10/2015, 19h07
Bonjour,

quel chiffres exactement ne vous paraissent pas bon ?

Avez-vous vu ça : https://github.com/radii/fio/blob/ma...mples/ssd-test ?

Savez-vous que les SSD ne support pas une queue de 64 (sauf certaines NVMe, ce qui n'est pas le cas des VPS SSD) ?

Cordialement, janus57

CBOX
06/10/2015, 13h19
Bonjour

Je viens d'obtenir mon VPS ssd (basique), et je viens de faire un test avec fio, les résultats paraissent peu satisfaisant :

# fio --description="Emulation of Intel IOmeter File Server Access Pattern" --name=iometer --bssplit=512/10:1k/5:2k/5:4k/60:8k/2:16k/4:32k/4:64k/10 --rw=randrw --rwmixread=80 --direct=1 --size=4g --ioengine=libaio --iodepth=64
iometer: (g=0): rw=randrw, bs=512-64K/512-64K/512-64K, ioengine=libaio, iodepth=64
fio-2.1.2
Starting 1 process
iometer: Laying out IO file(s) (1 file(s) / 4096MB)
Jobs: 1 (f=1): [m] [100.0% done] [3402KB/795KB/0KB /s] [811/185/0 iops] [eta 00m:00s]
iometer: (groupid=0, jobs=1): err= 0: pid=20080: Tue Oct 6 13:17:42 2015
Description : [Emulation of Intel IOmeter File Server Access Pattern]
read : io=3273.1MB, bw=4877.8KB/s, iops=799, runt=687295msec
slat (usec): min=3, max=6051, avg=35.13, stdev=26.44
clat (usec): min=938, max=142079, avg=79611.39, stdev=4608.80
lat (usec): min=948, max=142113, avg=79647.68, stdev=4608.70
clat percentiles (msec):
| 1.00th=[ 71], 5.00th=[ 74], 10.00th=[ 75], 20.00th=[ 77],
| 30.00th=[ 78], 40.00th=[ 79], 50.00th=[ 80], 60.00th=[ 81],
| 70.00th=[ 83], 80.00th=[ 84], 90.00th=[ 86], 95.00th=[ 88],
| 99.00th=[ 91], 99.50th=[ 93], 99.90th=[ 96], 99.95th=[ 97],
| 99.99th=[ 109]
bw (KB /s): min= 2970, max=10369, per=100.00%, avg=4882.61, stdev=1397.62
write: io=842059KB, bw=1225.2KB/s, iops=200, runt=687295msec
slat (usec): min=5, max=32061, avg=46.33, stdev=118.27
clat (usec): min=3, max=104015, avg=1553.99, stdev=1547.68
lat (usec): min=200, max=104045, avg=1601.56, stdev=1550.29
clat percentiles (usec):
| 1.00th=[ 644], 5.00th=[ 788], 10.00th=[ 836], 20.00th=[ 884],
| 30.00th=[ 916], 40.00th=[ 948], 50.00th=[ 996], 60.00th=[ 1112],
| 70.00th=[ 1880], 80.00th=[ 1960], 90.00th=[ 2896], 95.00th=[ 3888],
| 99.00th=[ 4896], 99.50th=[ 5920], 99.90th=[ 9664], 99.95th=[27776],
| 99.99th=[66048]
bw (KB /s): min= 570, max= 2991, per=100.00%, avg=1226.45, stdev=401.12
lat (usec) : 4=0.01%, 250=0.01%, 500=0.06%, 750=0.56%, 1000=9.48%
lat (msec) : 2=6.66%, 4=2.75%, 10=0.50%, 20=0.01%, 50=0.02%
lat (msec) : 100=79.95%, 250=0.02%
cpu : usr=1.36%, sys=5.85%, ctx=628782, majf=1, minf=21
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0%
issued : total=r=549440/w=137485/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
READ: io=3273.1MB, aggrb=4877KB/s, minb=4877KB/s, maxb=4877KB/s, mint=687295msec, maxt=687295msec
WRITE: io=842058KB, aggrb=1225KB/s, minb=1225KB/s, maxb=1225KB/s, mint=687295msec, maxt=687295msec

Disk stats (read/write):
vda: ios=549412/137855, merge=0/160, ticks=43740052/218108, in_queue=43959620, util=100.00%


Est-ce normal? Le test est il le bon?

Merci pour vos experiences sur ce thème...