AEX
-0.9500
Ils rendent possibles nos vies numériques, ces bâtiments logés dans nos banlieues et nos campagnes, mais rares sont ceux qui ont pu pénétrer les entrailles d'un centre de données (data center).
Des puces aux générateurs, des climatiseurs aux fibres, voyage dans l'un de ces lieux où se construit l'intelligence artificielle (IA).
- Un hangar en béton -
L'informatique à distance, le cloud, a pour théâtre des hangars en béton, certains longs de plusieurs centaines de mètres, avec souvent plusieurs étages.
A l'intérieur, des structures métalliques ou armoires d'environ 48 cm de large pour un peu plus de 1,80 de hauteur, qui contiennent, selon la taille choisie, entre une dizaine et une quarantaine de serveurs.
Ces derniers sont de puissants ordinateurs connectés à d'autres qui ont pour fonction de stocker des données et d'effectuer des calculs demandés par un utilisateur à distance.
Certains centres de données en renferment plus de 100.000 sur un même site.
Les installations à étages sont renforcées car une armoire à serveurs peut peser plus d'une tonne.
- Connexion -
Les serveurs doivent être raccordés à internet pour jouer leur rôle, ce qui nécessite commutateurs, routeurs, et câbles pour recevoir et envoyer des données, dans un délai réduit.
Pour ramener à son minimum le temps de transmission, aussi appelé latence, les opérateurs de "data centers" cherchent à positionner certains sites au plus près des grands centres urbains.
En Virginie, Ashburn, qui présente la plus forte concentration de centres de données au monde, offre ainsi les caractéristiques idéales car la ville est située à une cinquantaine de kilomètres seulement de Washington, la capitale des Etats-Unis.
Mais la densité urbaine et le coût de l'immobilier les obligent souvent à loger leurs plus grands centres en campagne.
- Contrôler la température -
Les puces les plus avancées, appelées GPU (graphics processing units), peuvent approcher, lorsqu'elles sont sollicitées, plus de 90°C. Cela peut affecter les performances du serveur voire endommager définitivement le processeur, en cas d'utilisation prolongée.
Pour maintenir les GPU sous ce seuil, les centres de données utilisent l'air conditionné traditionnel, mais aussi des méthodes plus économiques et au moindre impact environnemental.
Sont ainsi répandus le refroidissement naturel qui achemine l'air extérieur dans le bâtiment ou le refroidissement par évaporation en pulvérisant l'air chaud sur un matériau humide.
Mais le dispositif le plus en vogue et le plus efficace est le refroidissement liquide, qui fait passer, en circuit fermé, un fluide directement dans les serveurs, au plus près des puces.
Il permet de limiter la quantité d'eau utilisée par les centres de données, qui se monte à plusieurs millions de litres pour les plus grands d'entre eux.
- De l'électricité en continu -
Les besoins en énergie d'un centre de données sont considérables et peuvent correspondre à la consommation de plusieurs centaines de milliers de foyers.
Les opérateurs s'appuient sur le réseau électrique existant mais cherchent de plus en plus souvent à s'assurer de leurs propres ressources pour plus de sécurité et pour limiter la hausse des tarifs de tous les usagers.
Sont parfois installés des panneaux solaires ou des turbines à gaz, beaucoup attendant également l'arrivée, sur site, des premiers petits réacteurs nucléaires, les SMR, en cours de développement.
Internet fonctionnant en continu, les centres de données ne peuvent pas se permettre de coupure de courant et sont donc équipés de générateurs de secours, au diesel ou au gaz naturel, ou de batteries industrielles.
Les installations les mieux notées offrent la garantie d'une alimentation électrique 99,995% du temps
(K.Müller--BBZ)