serveurs informatiques 77 milliards de kilowattsheures/an

Discussions traitant des diverses sources d'énergie ainsi que de leur efficacité.

Modérateurs : Rod, Modérateurs

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 15 mai 2019, 23:55

Orange construit à Val-de-Reuil un deuxième data center de nouvelle génération

CLAIRE GARNIER PUBLIÉ LE 14/05/2019

Orange a posé la première pierre d’un deuxième data center de nouvelle génération à Val-de-Reuil (Eure). Il représente un investissement de 50 millions d’euros et une soixantaine d’emplois dont 20 employés d’Orange.

Stéphane Richard, PDG du groupe Orange a posé mardi 14 mai la première pierre d’un deuxième data center - "Normandie 2" - sur la commune de Val-de-Reuil (Eure) à 100 kilomètres de Paris sur l’autoroute de Normandie. Le bâtiment d’une superficie de 16 000 m², dont 5 000 m² de salles informatiques représente un investissement de l’ordre de 50 millions d’euros. Avec ses 1 500 serveurs, le data center affichera une puissance nominale de 13 MW, 30 % de plus que le data center Normandie 1. Sa construction doit s’achever en 2020. Le data center emploiera à terme 60 salariés, dont 20 d’Orange. Des experts informatiques, des techniciens pour la maintenance et la surveillance et des agents de sécurité.

https://www.usinenouvelle.com/article/o ... on.N842835

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 20 juil. 2019, 15:27

La vidéo en ligne émet autant de gaz à effet de serre qu'un pays comme l'Espagne

Par Mathieu Chartier Publié le 19/07/19

Le rapport d'un think tank spécialisé dans le climat s'intéresse à la vidéo en ligne et tend à montrer que le streaming vidéo est responsable d'un tel niveau d'émissions qu'il devra être régulé.


En 2018, The Shift Project indiquait dans son rapport Lean ICT – Pour une sobriété numérique que la consommation et l'usage des produits et services numériques pèsent davantage (55 %) dans les émissions de gaz à effet de serre que la fabrication des appareils en eux-mêmes (45 %). Le think tank français, initiateur en 2017 du Manifeste pour décarboner l'Europe, s'est donc focalisé sur ces usages, et plus précisément le streaming vidéo dans son dernier rapport intitulé Climat : l'insoutenable usage de la vidéo en ligne.

Rappelant que le numérique représente 4 % des émissions de gaz à effet de serre au niveau mondial, avec une progression annuelle de 9 %, le rapport estime à 60 % le poids des flux de vidéo en ligne sur l'ensemble des échanges de données Internet, soit 1,05 Zo (zettaoctets). C'est l'équivalent de 306 millions de tonnes de CO2 par an et 20 % du total des émissions de gaz à effet de serre résultant du numérique. Comparativement, cela représente un niveau de l'ordre de celui de l'Espagne.

Les plateformes de SVOD en tête


The Shift Project classifie les usages de la vidéo en ligne en fonction de leur impact écologique, ce qui permet de constater que les plateformes de SVOD (Netflix, Prime Video, Hulu…) sont celles qui ont les plus fortes répercussions. Représentant 34 % des flux vidéo en ligne, ces plateformes comptent pour 7 % du total des émissions dues au numérique. Suivent la pornographie avec 5 %, les "tubes” (YouTube, Dailymotion, etc.) avec 4 % et les autres usages de la vidéo en ligne (essentiellement les réseaux sociaux et les services de streaming mineurs), à 4 % également.


Dans ses conclusions, The Shift Project préconise l'adoption d'une sobriété dans les usages vidéo. Mais le think tank estime qu'il serait contre-productif que des contraintes viennent à être imposées aux utilisateurs. Alors, il encourage la mise en place d'un débat sociétal sur la question pour ne pas qu'un usage jugé précieux par la société “ne pâtisse de la surconsommation d’un autre jugé moins essentiel”. Un arbitrage collectif d'autant plus pressant que la crise climatique est là et que “ne pas choisir n’est plus une option viable”.

Remettre en cause usages et comportements
“Alors que nos modes de consommation actuels sont directement responsables de notre incapacité à réduire notre empreinte carbone, il nous semble difficile, déstabilisant, voire périlleux de les modifier. Pourtant, en matière d’usages numériques, ce rapport montre que l’essentiel des vidéos constituant 80 % du trafic Internet sont consommées à titre de divertissement ou de publicité. Un constat qui, face à l’urgence climatique, devrait nous convaincre que remettre en cause nos comportements numériques est non seulement souhaitable, mais possible”, déclare Hugues Ferreboeuf, directeur du groupe de travail Lean ICT chez The Shift Project.

“La sobriété devrait s’appliquer partout : biens de consommation, déplacements, mais aussi consommation Internet dont les vidéos. Regarder moins de vidéos et écouter, échanger avec les autres humains : un moyen pour construire le monde réel de demain !”, idéalise pour sa part Françoise Berthoud, ingénieure de recherche et directrice du GDS EcoInfo, CNRS et à l'université de Grenoble.
https://www.lesnumeriques.com/vie-du-ne ... 38395.html

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 26 oct. 2019, 10:06

Le numérique, un univers énergivore en expansion

Connaissance des Énergies 24 oct 2019

Le média GreenIT.fr a publié le 22 octobre ses dernières estimations concernant l'empreinte environnementale (notamment énergétique) du secteur numérique dans le monde(1).

1 300 TWh d’électricité consommée par an

En 2019, le secteur numérique mondial est constitué de « 34 milliards d’équipements(2) pour 4,1 milliards d’utilisateurs, soit 8 équipements par utilisateur », auxquels s’ajoutent les infrastructures de réseaux et les centres informatiques (data centers), indique la nouvelle étude de GreenIT.

Ce secteur numérique consommerait au niveau mondial de l’ordre de 1 300 TWh d’électricité par an(3) (5,5% de la consommation mondiale annuelle d’électricité), soit approximativement l’équivalent des productions électriques annuelles cumulées de la France, l'Allemagne et la Belgique. Cette consommation proviendrait, selon GreenIT, à 44% des utilisateurs (en incluant la consommation associée à la fabrication de leurs appareils), à 32% du réseau et à 24% des centres informatiques.

Précisons que GreenIT s’intéresse à l’empreinte environnementale globale du secteur numérique(4) (avec une méthodologie d’analyse de cycle de vie) en considérant 4 indicateurs : bilan énergétique(5), épuisement des ressources « abiotiques » (naturelles non renouvelables), émissions de gaz à effet de serre et tensions sur l’eau douce. Il est en particulier estimé que le secteur numérique compte actuellement pour environ 3,8% des émissions annuelles mondiales de gaz à effet de serre.

Objets connectés et « tassement » des gains d’efficience énergétique

Selon GreenIT, l’empreinte environnementale (dont l’empreinte énergétique) du secteur numérique – provenant historiquement des ordinateurs et dispositifs d’affichage associés - sera beaucoup plus forte d’ici à 2025(6) en raison de :

la très forte croissance du nombre d’objets connectés (dont le nombre pourrait avoisiner 48 milliards au niveau mondial en 2025 contre 1 milliard en 2010) ;
le doublement de la taille des écrans, notamment de télévision (entre 2010 et 2025) ;
un « tassement des gains en matière d’efficience énergétique » (alors que ceux-ci progressaient « sans interruption » jusqu’ici(7)) ;
une empreinte plus importante de la consommation d’électricité, celle-ci augmentant fortement dans les pays émergents aux mix électriques généralement plus carbonés que ceux des pays occidentaux.
Au total, GreenIT estime que la consommation d’électricité du secteur numérique pourrait être multipliée par 2,7 entre 2010 et 2025 « parce que le nombre d’équipements augmente, mais aussi parce que certains équipements consomment de plus en plus d’énergie ».

Pour réduire l’empreinte énergétique et environnementale du secteur numérique, GreenIT émet des recommandations à l’attention des pouvoirs publics (par exemple, allonger la durée de garantie légale des équipements(8)) et des consommateurs (par exemple, favoriser des produits d’occasion ou reconditionnés, éteindre sa box et le boîtier TV associé quand ils ne sont pas utilisés, limiter l’usage du cloud et du streaming, etc.). En 2025, le monde pourrait compter plus de 68,5 milliards d’équipements « numériques » selon GreenIT, soit le double du niveau actuel.

Sources / Notes

1) Étude « Empreinte environnementale du numérique mondial », GreenIT, octobre 2019.
2)« Quasi inexistants il y a encore 10 ans », les objets connectés seraient en particulier déjà 19 milliards en 2019 selon GreenIT (de 8 à 30 milliards selon les études). Le rapport fait par ailleurs état de plus de 7 milliards de téléphones (pour moitié environ des smartphones).
3)Le secteur numérique compterait pour près de 4,2% de la consommation mondiale d’énergie primaire.
4)Aux premiers rangs des sources d’impacts environnementaux listés par GreenIT figurent : la fabrication des équipements des utilisateurs ; la consommation d’électricité des équipements des utilisateurs ; la consommation d’électricité des réseaux ; la consommation d’électricité des centres informatiques.
5)L’impact énergétique du secteur numérique ne se limite pas à la consommation d’électricité associée : « en fonction de l’étape du cycle de vie d’un équipement, on utilise différentes énergies primaires pour fabriquer différentes énergies finales […] Par exemple, pour extraire des minerais, on utilise du gasoil que l’on transforme en force motrice permettant d’animer une excavatrice », souligne GreenIT. Le bilan énergétique global, incluant notamment l’énergie grise nécessaire pour fabriquer les équipements avoisinait 3 400 TWh d’énergie primaire en 2010 selon GreenIT.
6)GreenIT postule « un doublement, voire un triplement des impacts environnementaux en 15 ans » (entre 2010 et 2025).
7)« Le nombre de traitements par joule doublait ainsi tous les deux ans [loi de Koomey]. Pourtant, la consommation électrique annuelle du numérique va presque tripler entre 2010 et 2025 passant d’environ 700 TWh à 1900 TWh. Cela signifie que les gains d’efficience énergétique sur la phase d’utilisation, qui se tassent depuis quelques années, ne compensent plus la hausse continue de la taille des écrans (effet rebond) ».
8)La mise en place de consigne des EEE (équipements électriques et électroniques) permet par ailleurs d’augmenter le taux de collecte des DEEE.
https://www.connaissancedesenergies.org ... ion-191025

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 05 mars 2020, 08:26

La consommation électrique des data centers a-t-elle été surévaluée ?

Les progrès d’efficacité énergétique des data centers n’auraient pas été mesurés à leur juste niveau au cours des dernières années, selon un article publié par des chercheurs américains dans Science le 28 février(1). Cet « angle mort » aurait ainsi conduit à surévaluer leur consommation d’électricité.

03 Mars 2020
.........
Lire https://www.connaissancedesenergies.org ... uee-200304

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 24 mars 2020, 20:17

Comment les datacenters s'organisent face à la hausse du trafic internet et à la pandémie

NATHAN MANN Usine Nouvelle le 24/03/2020

Pris en étau entre l’épidémie de Covid-19 et l’afflux de l’usage d’internet qu’elle entraîne, les datacenters français mettent en oeuvre leur plans de continuité d’activité. Rassurant sur leurs capacités de maintenir le réseau, ils pointent de potentiels goulots au niveau des serveurs des entreprises.

Comment maintenir le fonctionnement d’une activité cruciale malgré l’épidémie de coronavirus ? Aux côtés des secteurs traditionnels comme la logistique ou l’énergie, les datacenters ne peuvent pas, eux non plus, s'arrêter. Nécessaires au bon fonctionnement des outils de télétravail, à la transmission des vidéos en ligne et à la pérennité des serveurs des entreprises en première ligne, ils doivent assurer la continuité du réseau. Dont les sollicitations s'envolent en raison du confinement.

Le défi est complexe. Contrairement aux apparences et aux idées reçues, Internet ne fonctionne pas dans le vide et les datacenters ne sont pas déserts. Hébergeant les serveurs des entreprises, ces bâtiments dits “en colocation” sont aussi des noeuds de connectivité qui permettent à une multitude d’acteurs – opérateurs de télécoms, infogéreurs et entreprises – d’interconnecter leurs machines et leurs réseaux. Certains sont même reconnus comme opérateurs d’importance vitale (OIV).

LIMITER LES ALLÉES ET VENUES

“D’ordinaire, les clients viennent eux-mêmes sur le site, par exemple pour installer des équipements ou des câbles”, décrit Sami Slim, directeur adjoint de Telehouse France, qui dénombre trois bâtiments dans l'Hexagone, dont le datacenter le plus connecté du pays. “Face à l’épidémie, nous ne leur interdisons pas de venir mais nous leur demandons de limiter leurs arrivées et si possible de confier le travail à nos équipes.” Celles-ci doivent intervenir physiquement et ne peuvent donc télétravailler. Elles ont été divisées en binômes et ne peuvent ni se croiser, ni partager les mêmes outils.

Outre la séparation des flux humains et la mise à disposition de gel hydroalcoolique, le groupe Interxion est allé plus loin, tirant parti des procédures mises en place lors du H1N1. “Plutôt que de mobiliser tout le personnel nécessaire à l’exploitation des sites, nous avons dédoublé les équipes, dont la moitié reste en télétravail”, expose Fabrice Coquio, président d’Interxion France. “Si un employé tombe malade, une autre équipe n’ayant pas été en contact avec les personnes contaminées peut prendre la relève.”

Explosion des raccordements de dernière minute

Sur le campus du groupe Data4 à Marcoussis (Essone), la cafétéria qui alimente les visiteurs des 12 datacenters a fermé ses portes. Mais les personnels des entreprises et opérateurs continuent de s'y croiser, le sars-cov-2 stimulant l’activité des noeuds d’Internet. “Nous constatons que nos clients ont gelé d’eux-mêmes nombre d’opérations usuelles, mais nous avons aussi vu des demandes d’interconnexions très urgentes”, résume Jérôme Totel, vice-président de la stratégie de Data4. Avec le début du télétravail lundi 16 mars, “certaines plate-formes de service ont été débordées par les demandes de connexions et ont acheté en urgence des liens télécoms à des opérateurs”. Même son de cloche chez Telehouse, qui note “une augmentation conséquente des demandes de raccordement” entre ses clients.

Comme on pouvait s’y attendre, les mesures de confinement ont ainsi fait exploser le trafic Internet. Au détriment des échanges humains mais aussi des réseaux privés des entreprises par lesquels transitent usuellement nombre d’échanges professionnels.
En charge du principal noeud d’échange en France, qui permet aux réseaux télécoms de s’interconnecter entre eux, l’association France IX affirme avoir constaté une augmentation de 15% du trafic passant dans ses tuyaux depuis le début du confinement. Jusqu’à dépasser 1,4 térabit par seconde (Tb/s) et battre son record de débit le mercredi 18 mars dernier. Le 11 mars déjà, son homologue allemand communiquait avoir dépassé la barre des 9 Tb/s de manière anticipée.

Un réseau résilient

Les gérants de centres de données affichent donc leur confiance dans l'infrastructure d'Internet. Comme les télécoms l’avaient déjà expliqué, les câbles et les interconnexions françaises sont bien dimensionnées et supporteront une hausse de trafic. Les demandes de connexion de dernière minute, elles, concernent surtout des serveurs dédiés au télétravail et à la bureautique. Là où ceux qui diffusent des matchs de foot, par exemple, ont l’habitude de devoir gérer des pics. Les centres de données, eux, ont fait des stocks de câbles et de fioul pour assurer la continuité de service.

Preuve du surdimensionnement habituel chez les plus grands acteurs, Interxion pointe une augmentation limitée autour de 5% des demandes de raccordement de la part de ses clients. Le groupe, qui a pris la décision de reporter toutes les maintenances préventives afin de diminuer le risque de panne, rapporte néanmoins certaines demandes importantes de certains clients, qui vont jusqu’à accroître leurs serveurs en urgence. “Un client français nous a demandé de doubler sa capacité de bande passante en 24h et mercredi 18 mars, à Paris, deux camions semi-remorques sont arrivés pour le compte d’un autre”, relate Fabrice Coquio, tout en insistant sur le caractère ponctuel de ces interventions, et la capacité de ses centres de données à les absorber.

Sauf incident ponctuel, les datacenters devraient donc être capables de répondre aux hausses de demandes et transmettre sans souci les conférences de travail, les journaux en lignes et les apéritifs virtuels des prochaines semaines. Aidés pour cela par les récentes annonces des plateformes numériques qui, comme Netflix ou Youtube, réduisent la qualité de leurs vidéos en réponse aux demandes de la Commission européenne.

Seule ombre au tableau : les réseaux d’approvisionnement. Alors que les câbles sont légions, “il devient de plus en plus compliqué de recevoir un serveur ou un équipement informatique”, constate Sami Slim. Un problème d’approvisionnement global qui, si la crise perdurait, pourrait pénaliser les industries et les freiner dans leur transformation numérique.
https://www.usinenouvelle.com/editorial ... ie.N944871

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 22 avr. 2020, 12:40

Singapour se projette dans des serveurs informatiques flottants

Publié le 22/04/2020 lemarin

Comme les géants d’internet Google et Microsoft, Singapour se projette sur l’eau pour renforcer son rayonnement numérique international.

Image

Une vue d’artiste de ce système de centres de données flottants refroidis à l’eau de mer et alimentés en énergie par une microcentrale électrique alimentée au gaz naturel liquéfié fournissant aussi du froid. (Image : Keppel data centres)
https://lemarin.ouest-france.fr/secteur ... ormatiques

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 06 mai 2020, 14:02

Interxion construit le plus gros datacenter de France, près de Paris

RIDHA LOUKIL Usine Nouvelle le 06/05/2020

Sur un ancien site industriel d’Airbus Helicopters près de Paris, l’hébergeur informatique Interxion lance la construction d’un méga datacenter de 40 000 m2, présenté comme le plus gros en France. Cet investissement d’environ 1 milliard d’euros s’inscrit dans une nouvelle vague d’expansion des géants du cloud et de l’internet faisant de Paris le troisième site d’implantation en Europe derrière Londres et Francfort.

Image

La crise du Covid-19 profite aux hébergeurs informatiques par le développement du télétravail, du cloud et des services internet. Et cela donne une nouvelle impulsion aux ambitions d’Interxion. L’hébergeur informatique, qui fait partie depuis mars 2020 du groupe Digital Reality, numéro un mondial des services de colocation et interconnexion, lance la construction, près de Paris, d’un datacenter de 40 000 m2 et d’une puissance électrique installée de 130 MW. L’investissement total approche 1 milliard d'euros. " A son ouverture, il sera le plus grand datacenter en France ", affirme à L’Usine Nouvelle Fabrice Coquio, PDG d’Interxion France.

Temps de latence le plus faible possible
........( abonnés Usine Nouvelle)
https://www.usinenouvelle.com/article/i ... is.N961331
En plein confinement, Interxion construit le plus grand data center d’Europe
Etendu sur 40.000 mètres carrés, il entrera en activité en août 2021


Par Elsa Bembaron LeFigaro le 29 avril 2020

Pendant le confinement, les travaux continuent. Le plus grand centre de stockage de données d’Europe est en cours de construction. Interxion annonce même au Figaro que le premier des quatre bâtiments de cette immense structure sera livré en août 2021. Le chantier à La Courneuve a pu rester ouvert ces dernières semaines. «Nous en étions aux travaux de préparation du terrain, quand le confinement a commencé», relate Fabrice Coquio, président d’Interxion France. Ce qui a facilité le maintien des activité sur le site. «Les intervenants étaient essentiellement des conducteurs d’engins de chantier, comme des pelleteuses. Dans ces conditions, le respect des gestes barrières et surtout, des distances sanitaires entre chacun, était facile à mettre en place», relate Fabrice Coquio.

Le futur data center de la Courneuve se dressera sur l’emplacement d’une ancienne usine Airbus Helicoptère. «C’est ici qu’en 1904 le premier avion de chasse français avait été construit», relate Fabrice Coquio. Elle laissera donc la place à des bâtiments flambants neufs... et respectueux de l’environnement. Pour son approvisionnement en électricité, Interxion s’est engagé à n’utiliser que des énergies vertes et renouvelables. Pour gagner en efficacité, le groupe a aussi signé un partenariat avec le Smirec (le service public de production et de distribution de chaleur et de froid de La Courneuve, Saint-Denis, Stains, Pierrefitte-sur-Seine, L’Ile-Saint-Denis). La chaleur dégagée par les serveurs servira à chauffer des bâtiments et des logements. Le nombre de bénéficiaire n’a pas encore été communiqué. Enfin, pas de nouveau bâtiment sans verdure. Le data center n'échappera pas à la règle, avec un jardin de 7500 mètres carrés attenant, qui sera ouvert au public.

La construction de ce nouveau centre de stockage de données «répond à l’évolution des besoins du marché», ajoute Fabrice Coquio. Les grands acteurs du Cloud, les plateformes de services, les entreprises.... tous ont besoin de capacités supplémentaires, qu’il s’agisse de Cloud privé ou de Cloud public. La crise actuelle n’a fait que mettre en avant cette mutation du marché, qui devrait se poursuivre bien au delà du confinement. L’intérêt de la localisation d’un data center à La Courneuve tient à la densité et à la qualité des interconnexions disponibles dans la région.
https://www.lefigaro.fr/secteur/high-te ... e-20200429

La région Ile-de-France, et particulièrement la Seine-Saint-Denis, concentre beaucoup de grands centres de données français, qui gagnent à être à peu de distance les uns des autres pour pouvoir communiquer entre eux eux via des réseaux privés. « La Courneuve, Saint-Denis, Aubervilliers (…) constituent la plus forte concentration de data centers en France », dont « une vingtaine de grande taille, pour un total d’environ 100 000 m2 , et une puissance réservée de 300 MW », notait l’an dernier un rapport de l’agence régionale d’urbanisme et d’environnement Institut Paris Region.
https://www.frenchweb.fr/en-seine-saint ... ter/399574

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 17 mai 2020, 11:50

Plongez votre datacenter dans un bain d'huile.
LA DATA Asperitas utilise l’immersion dans l’huile comme mode de refroidissement. Une technologie de rupture qui rend la climatisation obsolète.


JUDITH BREGMAN Usine Nouvelle le 16/05/2020

Au premier coup d’œil, le datacenter d’Asperitas ressemble à un juke-box électronique qui n’émettrait pas de musique mais une jolie lumière bleutée. D’un peu plus près, on se rend compte, non sans surprise une fois le capot levé, que les composants électroniques, les serveurs et leur connectique complexe ne sont pas à l’air libre, mais immergés au sein d’un liquide épais comme dans une sorte de friteuse.

Relié à un circuit d’eau tiède, le bain d’huile n’est pas là par hasard, il représente une solution de refroidis­sement des composants d’une efficacité bien supérieure à celle de l’air classiquement utilisé dans les systèmes de climatisation ou de "ree cooling" qui équipent encore nombre de datacenters dans le monde aujourd’hui.

Créée en 2014, la PME hollandaise Asperitas a mis au point en mars 2017, après deux années de R & D, le datacenter AIC24. Des collaborations avec l’université de Leeds (Grande-Bretagne) et avec le Vienna scientifical cluster, un consortium d’universités autrichiennes engagées dans le calcul haute performance, ont permis de bénéficier de leur expérience du refroidissement par immersion. Avec comme objectif initial de développer une solution compacte adaptée pour de petites surfaces à bord de navire.

Récupérer 99 % de l’énergie utilisée

"Nous avons choisi de travailler avec une huile de synthèse – un liquide de refroidissement tout à fait banal, peu coûteux et facile à se procurer partout sur la planète. Et nous avons noué un partenariat avec Shell pour sa fabrication, dévoile Maikel Bouricius, le directeur du marketing et de l’innovation énergétique pour Asperitas. Isolante et très visqueuse, cette huile se révèle particulièrement efficace pour transporter la chaleur et générer une circulation de convection naturelle à l’intérieur du bain." Afin de maximiser le transfert thermique entre les composants et le liquide, des serveurs standard, protégés par des boîtiers en acier inoxydable compatibles avec l’huile et offrant une surface de contact maximum sur deux faces, ont été créés par Asperitas. Un circuit d’eau fournie par le réseau vient au contact de l’huile récupérer les calories qui peuvent être réinjectées dans un circuit de chauffage, avec une température de sortie de l’ordre de 55 °C. Solution durable, les performances thermiques de l’huile ne diminuant pas avec le temps, l’AIC24 est aussi très compétitif avec un coût en électricité moindre, puiqu’il permet aussi théoriquement de récupérer 99 % de l’énergie utilisée. Une neutralité énergétique impossible à atteindre en free cooling, l’air chaud étant plus difficile à capturer et à transporter sans déperdition énergétique. La solution est aussi très compacte, car le liquide de refroidissement est directement au contact des composants, alors qu’un datacenter traditionnel nécessite des ventilateurs et beaucoup d’espace pour laisser passer le flux d’air. Le datacenter d’Asperitas bat également des records en termes de densité de calcul avec pas moins de 12 processeurs par serveur.

"L’investissement nécessaire pour construire un datacenter fondé sur notre technologie est moindre que pour un traditionnel, pour des raisons d’occupation au sol et aussi parce que la technologie de refroidissement est intégrée, précise Maikel Bouricius. C’est déjà le cas en climat tempéré. Sous un climat chaud, nous estimons pouvoir diminuer les dépenses d’investissement de 30 %." Une performance due à un coût de maintenance moindre, l’huile jouant un rôle protecteur pour les composants en supprimant l’oxydation par l’air, les variations brutales de température et les vibrations.

Portabilité et simplicité

"Nous avons réfléchi à la place de l’utilisateur final à chaque question qui pourrait se poser lors de l’intégration de nos machines en phase de production. Comment réagir si un serveur tombe en panne et qu’il faut y accéder pour le changer ? que faire si de l’huile tombe par terre ? comment relier le datacenter aux réseaux ?, se demande Maikel Bouricius. Il ne s’agit pas juste d’un nouveau système de refroidis­sement, mais d’une solution clés en main de "datacenter in a box" en mode "plug and play". L’infrastructure est complètement intégrée dans la solution et il n’y a plus qu’à se raccorder à trois réseaux pour apporter l’eau, l’électricité et les données", explique-t-il.

Une portabilité et une simplicité d’utilisation qui font de l’AIC24 une solution très modulable : "En une semaine, nous pouvons passer d’une unité à plus d’une centaine sans avoir à modifier les infrastructures, affirme le directeur. Les besoins spécifiques de chaque client et le comportement des composants peuvent être simulés numériquement en modélisant les flux thermiques dans le liquide." Calcul haute performance, trading haute fréquence, analyse de bases de données de grand volume ou complexes pour la recherche ou le renseignement, tous les secteurs gourmands en puissance de calcul pourraient être intéressés par des datacenters à immersion. Ainsi, le Vienna scientifical cluster a-t-il été l’un des premiers utilisateurs d’Asperitas pour ses appli­cations de recherche.

Du fait de ses performances énergétiques, le datacenter AIC24 peut être utilisé dans le trading à haute fréquence pour faire travailler les serveurs en surrégime permanent. Grâce au refroidissement par immersion, le taux d’échauffement des composants diminue et fait baisser d’autant le taux de panne, tout en augmentant la durée de vie des serveurs. Cependant, c’est aujourd’hui le secteur tertiaire qui s’intéresse aux datacenters à bain d’huile, qu’il s’agisse des fournisseurs de cloud, des entreprises de services informatiques ou de tous les secteurs susceptibles d’intégrer des services utilisant l’intelligence artificielle ou la blockchain, des technologies très consommatrices en calcul. Sans parler des acteurs du transport autonome ou des objets connectés pour qui des datacenters décentralisés et proches de l’utilisateur final seront demain indispensables !

Le Crédit agricole passe en production
Ce n’est pour l’instant qu’un conteneur maritime installé sur le parking du datacenter Greenfield, le plus grand du Crédit agricole, qui gère plus de 40 % de la charge de travail de la banque, à Chartres (Eure-et-Loir). à l’intérieur, un bac Asperitas avec à son bord 200 "machines virtuelles", exposées aux fluctuations météo. Initié en janvier 2018, le projet de test de cette solution au Crédit agricole est passé en phase de production en octobre 2018 : "Nous avons une année complète de fonctionnement derrière nous, ce qui nous a permis d’observer le comportement de ces serveurs par tous les temps, explique Jean Buet, le directeur de Greenfield. Et c’est un franc succès, puisque l’indicateur d’efficacité énergétique est passé de 1,4 à 1,03 en hiver et 1,04 pendant la canicule. Surtout, on divise le coût en infrastructures par un facteur allant de 5 à 10, et sans doute aussi le coût en maintenance !"Résultat : si les quelques dizaines de milliers de machines virtuelles de Greenfield étaient entièrement transférées sur des serveurs Asperitas, il ne faudrait plus que 150 mètres carrés de surface au sol pour les héberger, contre 6 000 mètres carrés de surface informatique actuellement. "Aujourd’hui, la technologie des datacenters à immersion est suffisamment mature pour être adaptée à nos normes de production industrielle", considère Jean Buet. La prochaine étape du projet ? Libérer une travée au sein du datacenter Greenfield pour y installer une rangée de bacs Asperitas. De quoi aussi offrir aux clients un service à la capacité plus facilement modulable, et prolonger ainsi la durée de vie des datacenters classiques.

Huile versus air

Coût en surface : - 80 %
Coût énergétique : - 50 %
Coût de maintenance : - 15 %

Source : Estimations Asperitas
https://www.usinenouvelle.com/editorial ... le.N900519

voir 4 minutes de vidéo de présentation sur le site de Asperitas :
https://www.asperitas.com/datacentre-immersion-cooling/

alain2908
Hydrogène
Hydrogène
Messages : 2354
Inscription : 13 nov. 2005, 09:58

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par alain2908 » 18 mai 2020, 23:05

je trouve ça génial.
Sauf que si tout le monde remplace ses serveurs par ceux d'asperitas, ca fait un serieux gachis.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 19 mai 2020, 00:00

alain2908 a écrit :
18 mai 2020, 23:05
je trouve ça génial.
Sauf que si tout le monde remplace ses serveurs par ceux d'asperitas, ca fait un serieux gachis.
Sauf que la techno a déjà été annoncée par Fujitsu en 2017 :
L'ordinateur que l'on noie pour le refroidir
VIDÉO. Fujitsu a présenté à Tokyo un système de refroidissement par immersion dans un liquide qui ne conduit pas l'électricité. Impressionnant ! Par Guerric Poncet (à Tokyo)
Modifié le 19/05/2017
https://www.lepoint.fr/high-tech-intern ... 591_47.php

Donc il doit y avoir quelque part des freins à l' adoption .......

alain2908
Hydrogène
Hydrogène
Messages : 2354
Inscription : 13 nov. 2005, 09:58

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par alain2908 » 19 mai 2020, 08:30

Le frein principal me parait être le caractère propriétaire du système et le coté tout ou rien.
mais je ne suis pas un spécialiste.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 19 mai 2020, 11:08

alain2908 a écrit :
19 mai 2020, 08:30
Le frein principal me parait être le caractère propriétaire du système et le coté tout ou rien.
mais je ne suis pas un spécialiste.
Il n' y a rien de propriétaire dans le refroidissement liquide, CRAY l' avait déjà fait en 1987 pour le Cray2. Les brevets éventuels de l'époque sont déja tombés.

voir : http://expositions-virtuelles.univ-toul ... eur-cray-2

Mais oui, à partir du moment ou le refroidissement liquide est choisi, il faut se plier au contingences de ce système (est ça que vous voulez dire par le coté tout ou rien ?). Pas fuites de liquide, maintenance qui doit faire avec, savoir faire pas commun. Purge du système ?

tita
Hydrogène
Hydrogène
Messages : 6190
Inscription : 07 juin 2005, 11:22
Localisation : Franches-Montagnes (Suisse)

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par tita » 19 mai 2020, 11:30

energy_isere a écrit :
19 mai 2020, 00:00
Donc il doit y avoir quelque part des freins à l' adoption .......
Le temps et le BAU?

Une entreprise spécialisée dans les datacenters ne va pas adopter une techno du jour au lendemain alors qu'elle a investi dans un une autre. Surtout que pendant longtemps, après l'arrivée des chips CMOS, les défis en terme de refroidissement se sont réduits. Dans les années 90, un simple radiateur sur le processeur était suffisant pour le refroidir. Du coup, le refroidissement à air s'est plus ou moins imposé partout, meilleur marché.

Ce n'est que dans les 15 dernières années que c'est à nouveau devenu un problème toujours plus conséquent et énergivore. Et depuis 2016 qu'un engouement s'est sérieusement développé pour le refroidissement liquide par immersion. Reste que l'article vante tous les avantages, mais une nouvelle techno a forcément certaines limites. En particulier, comment réagissent certains matériaux au contact de cette huile magique avec le temps? Le manque de recul peut rendre frileux l'adoption d'une nouvelle technologie.

Et il y a probablement un surcoût dans l'investissement, parce qu'il faut tout repenser la conception physique des serveurs. Ce ne sont plus des rack-armoires, mais des rack-baignoires. Des formats se sont imposés, et la production de masse fabrique les composants adaptés au refroidissement à air. Il y a des vidéos où on voit des cartes serveur adaptées (retrait des ventilos, remplacement des radiateurs) pour aller dans un rack à refroidissement liquide, mais ça reste une peu du bricolage.

Y'a une page wikipedia sur le sujet:
https://en.wikipedia.org/wiki/Server_immersion_cooling

J'ai l'impression que ça va s'imposer, vu les avantages qui sont évoqués et le nombre d'acteurs du marché qui s'y intéressent. Reste à affiner la technologie, créer des normes, produire en masse, etc.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89517
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par energy_isere » 19 mai 2020, 11:39

Merci pour le lien Wikipedia.

Asperitas n' est donc pas le premier à faire ça pour les serveurs de data center.

Avatar de l’utilisateur
GillesH38
Hydrogène
Hydrogène
Messages : 27230
Inscription : 10 sept. 2005, 17:07
Localisation : Berceau de la Houille Blanche !
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/an

Message par GillesH38 » 19 mai 2020, 12:31

On construisait des datacenter dans les régions nordiques, maintenant on va les placer à coté des raffineries !
Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas".

Répondre