06 jan 2016

Data centers économes en énergie : Météo-France montre l’exemple

Comment réduire la consommation d’énergie des data centers quand les besoins en calcul sont exponentiels ? Figure emblématique du calcul intensif, Météo-France a su concilier ces enjeux contradictoires. Explications d’Alain Beuraud, chef de projet « Calcul Intensif » chez Météo-France.

Augmenter sa puissance de calcul à un million de milliards d’opérations (un pétaflops) par seconde en 2014 en diminuant la consommation d’énergie des data centers : le défi était de taille… et Météo-France l’a relevé. Désormais équipé de deux des plus gros supercalculateurs européens qui permettent de multiplier la puissance de calcul par 12 par rapport à sa configuration antérieure, l’organisme public est néanmoins parvenu à réduire sa facture énergétique de 40 %.

À quelle contrainte de consommation d’énergie votre data center doit-il faire face ?

Chez Météo-France, la contrainte énergétique est très forte. La capacité de calcul est dimensionnée pour livrer à la fois des prévisions opérationnelles au quotidien et des modélisations pour des simulations climatiques à long terme qui contribuent aux travaux du GIEC, le tout en respectant les budgets de fonctionnement alloués. Ces fortes capacités entraînent des consommations énergétiques élevées. 

Outre le coût, il serait paradoxal, pour un organisme comme le nôtre, d’annoncer des projections d’élévation de température incitant à réduire son empreinte énergétique, tout en affichant une consommation électrique des data centers en forte croissance. Avoir deux supercalculateurs différents nous permet, en cas de panne du calculateur opérationnel (stratégique au quotidien), de basculer sur le calculateur chargé des opérations de recherche. C’est un moyen de sécuriser les opérations, tout en optimisant nos coûts de maintenance. 

Comment la consommation électrique a-t-elle joué dans le choix des supercalculateurs ?

Ces supercalculateurs répondent à une vision à long terme des besoins, car bouleverser nos codes de calcul pour s’adapter aux architectures de nouveaux calculateurs implique à chaque fois un gros travail de validation sur des environnements logiciels totalement différents. Dans l’appel d’offres lancé en 2013, nous avions fixé des objectifs minimums de performance, une enveloppe budgétaire et des bornes maximales de consommation d’énergie de nos data centers. 

Au départ, nous devions gagner au moins un facteur 10 en puissance de calcul, tout en restant dans une consommation électrique maximale de 1 MW, le système précédent consommant 860 kW. Titulaire du marché, Bull Atos s’est engagé sur une borne de 900 kW, nettement meilleure que l’objectif. Mais, plus inattendu, la flexibilité apportée par les nouveaux supercalculateurs a changé la donne. Auparavant, une fois le data center lancé, sa consommation électrique était constante. Sur les nouveaux calculateurs, chaque processeur sait ralentir sa fréquence suivant son utilisation. C’est ainsi que nous avons pu dépasser nos objectifs en matière de performances applicatives (nous avons augmenté notre puissance de calcul d’un facteur 12), tout en réduisant la consommation d’énergie de nos data centers. 

Avec une puissance électrique moyenne appelée par les calculateurs de l’ordre de 610 kW, la consommation électrique s’est avérée inférieure au seuil visé et, surtout, bien inférieure à celle de notre ancien environnement pourtant nettement moins puissant.

Comment avez-vous réussi à dépasser vos objectifs ?

Plusieurs facteurs technologiques ont joué. Nous avons eu l’aide de Bull Atos comme intégrateur et d’Intel Xeon pour les processeurs. Ces processeurs sont capables de réduire leur fréquence d’utilisation, notamment en périodes de synchronisation ou d’écriture de résultats (qui représentent une part importante de nos traitements), avec un bénéfice direct sur la consommation énergétique des data centers. 

L’autre facteur de performance concerne les technologies d’évacuation de chaleur des data centers. Nous avons recours au « direct liquid cooling » qui permet de refroidir l’intérieur des lames de calcul du système avec un liquide caloporteur. Chaque armoire de calcul est équipée d’échangeurs reliés à des circuits d’eau extérieurs. L’eau qui sort habituellement des processeurs autour de 60° C doit être réinjectée à température plus basse. 

En 2016, nous procédons à un nouveau saut de puissance de calcul pour atteindre 4,8 pétaflops sur la configuration Bull Atos. Pour réduire encore notre empreinte énergétique, nous utiliserons une eau entrante de 35° C dans les armoires de calcul, au lieu de 18° C actuellement. Nous pourrons ainsi réduire considérablement l’utilisation des groupes froids. En période de forte chaleur, il nous suffira de faire passer le circuit d’eau à l’extérieur et d’utiliser un refroidisseur dit « adiabatique » (qui rafraîchit par pulvérisation d’eau) pour maintenir l’eau à 35° C.

Quels bénéfices énergétiques et économiques avez-vous obtenus ?

Ces technologies nous ont permis de réduire la consommation d’énergie des data centers de 30 % pour l’activité calcul. Nous avons, par ailleurs, économisé 10 % supplémentaires sur notre facture en raison de l’optimisation de notre contrat d’électricité désormais ajusté à nos besoins moins importants. Au total, nous aurons amélioré notre facture énergétique de 40 %. 

En parallèle, nous valorisons la chaleur fatale issue d’un des deux supercalculateurs pour chauffer le bâtiment Clément Ader de l’Université de Toulouse (zone de Montaudran) qui héberge le data center et dans lequel travaillent 200 personnes. La chaleur fatale du second calculateur sera également exploitée fin 2016.
Haut de page