OVH Community, votre nouvel espace communautaire.

Le housing Ovh: le concept


leon_m
10/04/2008, 18h28
Merci pour les infos!
Etrange, de canaliser l'air frais directement depuis la clim vers les serveurs.

D'habitude, on fait le contraire avec des clims rapprochées: on canalise l'air chaud sortant des serveurs vers les clims. C'est plus efficace normalement, pour plusieurs raisons:

* l'air qui sort des serveurs est chaud et ne s'est pas encore mélangé à l'air ambiant (plusfrais). Donc la clim avale de l'ai plus chaud dans ce cas. Donc la clim consomme moins. En effet, ça consomme moins d'énergie de refroidir une même quantité d'air de 30°C jusqu'à 20°C plutôt que de 25°C jusqu'à 15°C (températures données au pif).

* la température aspirée par les serveurs est plus homogène, car l'air a eu le temps de se mélanger à l'air ambiant. Une température d'air sortant directement de clim peut varier pas mal.

* en cas de panne temporaire de clim, l'air ambiant plus frais constitue une réserve de froid qui permet de tenir sans clim un peu plus longtemps.

Peut-on savoir pourquoi OVH a choisi cette solution: le circuit d'air frais le plus court, alors que les autres font au contraire un circuit d'air chaud au plus court?

Autre question: y a-t-il une reserve d'eau glacée? Ca semble être utile pour les fortes puissances.

Leon.

XelaFr
05/04/2008, 17h45
Très bonne initiative.

Le fait d'avoir des climatisations au dessus des baies n'induit il pas un risque pour les équipements qui sont en dessous en cas d'incident de type fuite ? Aucun liquide ne pourrait être amené à couler dans la baie et à endommager les équipements qui s'y trouvent ?

merci

Alex

hostbaie
04/04/2008, 15h39
Avec ce système les interventions gagneront en confort dans vos salles aussi, j'ai fait bcp de data center et je confirme ce que Octave dit. Dans beaucoup de datacenter, il fait froid dans la salle elle meme mais beaucoup moins dans la baie !

Je pense que vous devriez aussi reflechir au confort de vos clients, ne pas négliger dans vos futures salles, un espace pratique pour les differentes interventions que l'on peut effectuer pour nos clients.

Je donne quelques idées en vrac qui je pense seront vite très appreciable pour vos clients (quitte à le faire payer en option).

1) Un espace de rangement, meme petit 10U par exemple pour que vos clients puissent stocker en securité des pieces de rechangent par exemple. (option payante)
2) Un espace avec table et chaise pour ne pas devoir demonter le chassi et les pièces du serveur par terre, du vécu... On a rarement lors d'une urgence le temp de rentrer chez soit pour depanner.
3) Bien sur une machine à cafée indispensable pour les longues nuit !

Bref, je pense que vous pouvez en plus de ces innovations technologiques qui semblent incontestable, apporter un vrai confort supplementaire à vos futures clients qui ne pourront que vous en remercier.

Le prochain data à roubaix? Je pré-reservé pour 2009 moi

oles@ovh.net
04/04/2008, 10h30
Bonjour,
Nous nous approchons de la date d'ouverture d'une première partie de notre
datacentre Parisien spécialisé dans le housing. Étant donné les problèmes
avec Telecity/Redbus, nous avons décidé de revoir le planning de démarrage
du datacentre et proposer une solution en priorité à nos clients de Redbus.
Seulement après, nous allons proposer ce qu'il va nous rester aux nouveaux
clients. D'après les préservations, tout sera loué en 4-6 semaines après
la date de l'ouverture. En effet, le datacentre fonctionne en N+N avec de
prix qu'on ne trouve plus sur le marché depuis 5 ans. A notre niveau il
s'agit d'un coup d'essai dans ce genre d'offre en propre. Si l'expérience
est positive, nous allons récidiver dans ce genre de datacentre en province
à partir de 2009.

Il est donc le temps de vous en parler des innovations écologiques que nous
avons mis en place dans ce datacentre. Il s'agit des innovations concernant
le refroidissement de vos installations. L'objectif était de vous proposer
le maximum de puissance électrique dans la baie, et donc assurer un refroidissement
maximum de la baie tout en évitant le gaspillage électrique vis à vis de
l'environnement. Dans ce genre de cas, souvent on arrive à de solutions les plus
simples et les plus efficace et donc forcement les plus économes.

Dans un datacentre traditionnel, le refroidissement est fait avec des clims qui
soufflent l'air froid dans le faux-planché. L'air passe en suite à travers de
trous dans le faux-planché dans la baie (directement) et aussi au tour de la
baie. L'air refroidit les serveurs et sort chaud par le haut. Puis les clims
reprennent l'air chaud dans le faux-plafond pour le refroidir à nouveau. Il
existe plusieurs problèmes avec ce système là:
- L'air froid refroidit le béton, le bois, les câbles dans le faux-planché.
C'est donc un 1er gâchis inutiles et non négligeable. Environ 20% de
l'énergie.
- L'air froid en sortant du faux-planché doit entrer dans la baie à travers
le trou en dessous de la baie et à travers les petits trous devant et derrière
la baie. Dans la réalité, les serveurs bloquent le passage de l'air à travers
le trou dans la baie et donc si votre hosteur vous propose les baies avec
des portes sans de petits trous, vous pouvez être sûr d'avoir 60°C dans la
baie. Depuis 5 ans, tous les hosteurs proposent de portes avec de petits trous
pour ramener de l'air froid supplémentaire dans la baie. Le problème est que
souvent les serveurs ont besoins de l'air froid devant la baie et éjectent
l'air chaud en arrière de la baie. Du coup 50% de froid qui essaie d'entrer
dans la baie ne peut pas le faire puisqu'il est repoussé par l'air chaud
sortant de la baie. On estime que seulement 40% du froid produit est réellement
utilisé pour refroidir les serveurs dans la baie. Le résultat est simple: aucun
hosteur ne propose de baies avec plus que 2KVA de puissance électrique puisqu'il
est impossible de refroidir plus de 2KVA avec cette méthode là.
- Comme il y a les pertes liés à ces 2 gâchis, initialement il faut refroidir
l'air encore plus. Il faut donc plus d'énergie nécessaire pour refroidir
l'infrastructure. Environ 2 fois plus.
- Le circuit de refroidissement de l'air est très long et nécessite des gros
ventilateurs qui vont faire la difference de pression suffisant pour mettre
l'air en mouvement à travers tous les trous et les serveurs. Ceci nécessite
beaucoup de puissance électrique.

L'avantage:
- la température dans la baie et la température ambiante est presque la même.
Au niveau de marketing lorsqu'on fait visiter un datacentre (neuf) l'air
est froid et on a l'impression que "ça marche bien". Oui ça marche bien parce
qu'en visitant on a froid. C'est rassurant d'avoir froid dans un datacentre.

Nous avons travaillé sur la question de refroidissement de baies dans le cadre
des offres de housing pendant 5 mois et nous avons mis au point un système
extrement innovant et avec très peu de gâchis.

Nous avons testé la solution dans notre datacentre de Roubaix sur une plate-forme
expérimentale pendant 3 mois ce qui nous a permit de valider la solution en charge
(100 serveurs HG ont été hébergés dans ces baies durant 3 mois). Aucun problème
à relever.

Comment ça marche ?
-------------------
Vous connaissez tous un équipement qui s'appelle "frigo". Vous avez tous un frigo
chez vous dans votre maison ou l'appartement. Le principe de frigo est de créer
de l'air froid à l'intérieur pour conserver vos aliments, pour refroidir les sodas
etc. Nous avons retenu le principe de frigo pour le housing mais l'échelle
industrielle:

- Chaque baie possède 2 clims personnelles alimentés par 2 systèmes de
refroidissement. Les clims sont physiquement placés en haut de la baie.
- Chaque baie possède 4 côtés: le devant, à droite, l'arrière et à gauche. La
porte devant est pleine et la porte à l'arrière possède de petits trous.
Les portes de 2 côtés de la baie (à droit et à gauche) sont semi ouvert devant
vers une fausse demi-baie. Dans cet espace là, les clims soufflent de l'air
froid. Vous avez donc des rangés avec une baie de serveurs puis un espace avec
l'air froid, une baie de serveurs puis un espace avec l'air froid, etc
- Le circuit d'air: l'air sortant des clims entre dans l'espace fermé puis entre
dans les 2 baies à ses côtés directement à l'intérieur de la baie juste devant
les serveurs. L'entrée de l'air se trouve de 2 côtés sur toute la hauteur de la
baie. Tout l'air froid est réellement utilisé pour refroidir les serveurs. L'air
refroidit les serveurs et sort à l'arrière de la baie à travers les petits trous
de la porte arrière. La clim reprend l'air chaud à l'arrière de la baie pour le
refroidir à nouveau. Le circuit de froid est très court.
- Chaque baie possède 2 clims à ses 2 côtés. Si l'un de 2 systèmes est en panne,
tout continue à fonctionner avec le système qui reste en fonctionnement.

Les avantages:
- Il y a très peu de gâchis de l'énergie. Les clims se trouvent à 1 mètre
de serveurs et ne fonctionnent que pour refroidir les serveurs.
L'efficacité de notre système est environ 220% supérieure par rapport à
un datacentre traditionnel. C'est donc un datacentre nettement plus
respectueux de la nature.
- Le circuit de l'air est très court et donc avec peu d'énergie nous
savons faire une difference de pression suffisant pour faire un "vent"
dans la baie.
- Nous savons refroidir jusqu'à 10KVA de puissance électrique par baie
(techniquement parlant) et 6KVA en commercialisation. C'est grâce au
fait que le froid est distribué de manière homogene tout en hauteur de la
baie à ses 2 côtés.
- Le système de froid extrement secure puisqu'il y a 2 circuits de froid
pour la baie et non pas pour le datacentre.

Les inconvénients:
- Techniquement parlant c'est un vrai défis la construction d'un tel datacentre.
Il s'agit en effet de construire 70 baie-frigos de 10KVA de froid pour chacune
de baie et évacuer tout ce chaud à l'extérieur du datacentre.
- Le seul point noir du datacentre est que le client qui se trouve à l'arrière
de la baie va avoir la sensation de chaud. Il peut donc penser que le système
de froid dans notre datacentre n'est pas bon. En effet, nous avons mis le packet
pour refroidir les serveurs dans la baie et évité tout gâchis de l'énergie pour
des questions de marketing. Nous avons donc pris la décision de ne pas mettre
les clims à l'entrée du datacentre et dans les salles pour refroidir l'air
ambiante à 19°C. Techniquement parlant ce n'est pas nécessaire. Mais ceci donne
la sensation de froid dans le datacentre et donc rassure le client qui visite
le datacentre. Tiens, il fait froid, donc c'est un bon datacentre. A l'opposé
nous avons pris le risque que le client a intégré la contrainte environnementale et
l'écologie et il va faire l'abstraction entre la température de l'air ambiant
de 24°C-25°C et l'air froid dans la baie qui est bien à 19°C. Nous espérons que
c'est vrai et nous n'allons pas avoir la même réaction préjugée que nous avons eu
en 2004 quand nous avons annoncé les travaux interne sur refroidissement liquide
chez Ovh où nous avons perdu des clients parce qu'on a voulu faire de l'écologie
Nous pensons que c'est important d'éviter les gâchis mais on verra bien si le
client pense pareil ou pas.

On vous raconte d'autres histoires écologiques ?

Amicalement
Octave