serveurs informatiques 77 milliards de kilowattsheures/an

Discussions traitant des diverses sources d'énergie ainsi que de leur efficacité.

Modérateurs : Rod, Modérateurs

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 08 sept. 2024, 17:58

OpenAI consommerait déjà autant que 33 000 foyers.
Generative AI’s environmental costs are soaring — and mostly secret
20 February 2024

....................
one assessment suggests that ChatGPT, the chatbot created by OpenAI in San Francisco, California, is already consuming the energy of 33,000 homes. It’s estimated that a search driven by generative AI uses four to five times the energy of a conventional web search. Within years, large AI systems are likely to need as much energy as entire nations.
............................
https://www.nature.com/articles/d41586-024-00478-x

Donc environ 33 MW, c'est pas encore gigantesque, mais ca devrait vite monter.
Je n'ai pas encore vu de contrats PPA de OpenAI avec des producteurs d' ENR pour s'approvisionner en électricité verte en Californie.

Et puis les plans d' électricité de OpenAI avec de la fusion en 2029 avec Helion je n'y crois pas un instant. Ils refont le coup de Musk avec l'homme sur Mars.
https://www.datacenterdynamics.com/en/n ... on-report/

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 15 sept. 2024, 11:21

L'IA "accélère la crise climatique", alerte l'experte Sasha Luccioni

AFP •15/09/2024

Une intelligence artificielle (IA) générative utilise "30 fois plus d'énergie" qu'un moteur de recherche classique, alerte la chercheuse Sasha Luccioni qui veut sensibiliser la population à l'impact environnemental de cette nouvelle technologie.

Reconnue comme l'une des 100 personnalités les plus influentes du monde de l'IA par le magazine américain Time en 2024, cette Canadienne d'origine russe cherche depuis plusieurs années à quantifier les émissions de programmes comme ChatGPT ou Midjourney.

"Je trouve ça particulièrement décevant qu'on utilise l'IA générative pour faire une recherche sur Internet", déplore la chercheuse rencontrée par l'AFP à la conférence ALL IN dédiée à l'intelligence artificielle à Montréal.

Les modèles de langage sur lesquels ces IA se fondent exigent en effet d'énormes capacités de calcul pour s'entraîner sur des milliards de données, ce qui nécessite des serveurs puissants. A cela s'ajoute l'énergie consommée pour répondre aux requêtes d'un utilisateur.

Au lieu d'extraire des informations, "comme le ferait un moteur de recherche pour trouver la capitale d'un pays par exemple", ces IA "génèrent de nouvelles informations", rendant le tout "beaucoup plus énergivore", souligne-t-elle.

Selon l'Agence internationale de l'énergie (AIE), en combinant l'IA et le secteur des cryptomonnaies, les centres de données ont consommé près de 460 TWh d'électricité en 2022, soit 2% de la production mondiale totale.

- "Efficacité énergétique" -

Précurseure dans la recherche sur l'impact de l'IA sur le climat, Sasha Luccioni a participé en 2020 à la création d'un outil destiné aux développeurs pour quantifier l'empreinte carbone de l'exécution d'un morceau de code. "CodeCarbon" a depuis été téléchargé plus d'un million de fois.

Celle qui dirige la stratégie climatique de la startup Hugging Face, une plateforme de partage de modèles d'IA en libre accès, travaille désormais à la création d'un dispositif de certification des algorithmes.

Similaire à celui d'"Energy Star", qui attribue des notes selon la consommation énergétique d'un appareil aux Etats-Unis, ce programme, qu'elle compare aussi au Nutri-score français dans l'alimentaire, permettrait de connaître la consommation énergétique d'un modèle afin d'inciter les utilisateurs et développeurs à "prendre de meilleures décisions".

"On ne prend pas en compte l'eau ni les matériaux rares", reconnaît-elle, "mais au moins, on sait que pour une tâche spécifique, on peut mesurer l'efficacité énergétique et dire que ce modèle-là a un A+, puis ce modèle-là a un D", précise-t-elle.

- "Transparence" -

Afin de développer son outil, Sasha Luccioni l'expérimente sur des modèles d'IA générative accessibles à tous (open source) mais elle aimerait également le faire sur les modèles de Google ou encore OpenAI (le créateur de ChatGPT) qui restent pour l'instant réticents.

Bien qu'ils se soient engagés à parvenir à la neutralité carbone d'ici à la fin de la décennie, ces géants du monde de la tech voient leurs émissions de gaz à effet de serre augmenter en 2023 à cause de l'IA: +48% pour Google par rapport à 2019 et +29% pour Microsoft par rapport à 2020.

Si on ne fait rien pour réguler ces systèmes d'IA, "on accélère la crise climatique", soupire la trentenaire qui demande plus de transparence de la part de ces entreprises.

Et la solution, dit-elle, pourrait venir des gouvernements qui, pour l'instant, "naviguent à l'aveugle", sans savoir ce qu'il y a "dans les jeux de données ou comment sont entraînés les algorithmes".

"Une fois qu'on a la transparence, on peut commencer à légiférer", soutient l'experte.

- "Expliquer aux gens" -

Pour la chercheuse montréalaise, il faut aussi "expliquer aux gens ce que l'IA générative peut faire et ne peut pas faire, et à quel coût".

Dans sa dernière étude, celle qui fait de nombreuses interventions à l'international a ainsi démontré que produire une image en haute définition à l'aide d'une intelligence artificielle consomme autant d'énergie que recharger entièrement la batterie de son téléphone portable.

A l'heure où de plus en plus d'entreprises veulent démocratiser cette nouvelle technologie en l'intégrant sous plusieurs formats (robot conversationnel, appareils connectés, recherches en ligne), Sasha Luccioni prône la "sobriété énergétique".

L'idée ici n'est pas de s'opposer à l'IA, souligne-t-elle, mais plutôt de choisir les bons outils et les utiliser judicieusement.
https://www.boursorama.com/actualite-ec ... af6f27bc0b

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 20 sept. 2024, 19:25

Data centers : les GAFAM minimisent fortement leur niveau réel d'émissions, selon The Guardian

le 20 septembre 2024

Les émissions de gaz à effet de serre des data centers détenus par les « GAFAM » (Google, Apple, Facebook, Amazon et Microsoft, couramment appelés « Big Tech » en anglais) seraient largement plus élevées que le niveau annoncé, selon une analyse du quotidien britannique The Guardian(1).

La consommation électrique des data centers en chiffres

En 2022, les data centers, les cryptomonnaies et l'intelligence artificielle (IA) auraient consommé près de 460 TWh d'électricité au niveau mondial, ce qui correspond à « presque 2% de la demande mondiale d'électricité », selon les dernières données de l'Agence internationale de l'énergie (AIE)(2).

Ces besoins pourraient s'élever entre 620 TWh et 1 050 TWh dès 2026, estime l'AIE selon différents scénarios, ce qui revient approximativement, en matière de consommation électrique, à « ajouter au moins l'équivalent de la Suède ou au plus de l'Allemagne ».

Les dynamiques de croissance sont plus ou moins fortes selon les régions du monde (on compte actuellement plus de 8 000 data centers dans le monde, dont 33% aux États-Unis et 16% en Europe). En Irlande, la demande des centres de données irlandais comptait déjà pour plus d'un cinquième de la consommation nationale d'électricité en 2023.

Et le développement de l'IA augmente la voracité du secteur : une requête auprès de ChatGPT engendre une consommation électrique environ 10 fois plus importante qu'une recherche sur Google, selon les estimations de Goldman Sachs(3).

Des émissions environ 662% supérieures au niveau déclaré

Dans ce contexte, les « GAFAM » multiplient les déclarations sur leurs actions visant à réduire l'impact climatique de leurs data centers. Mais selon The Guardian, « les émissions réelles des centres de données internes ou appartenant à Google, Microsoft, Meta et Apple sont probablement supérieures d’environ 662 % – soit 7,62 fois – aux niveaux officiellement déclarés » entre 2020 et 2022.

Les « Big Tech » useraient d'une « comptabilité créative » pour présenter un bilan plus flatteur en matière d'émissions : ils achètent en particulier des certificats d'énergie renouvelable. Mais, sans cette compensation, les émissions « basées sur la localisation » des data centers reviendraient, à faire des GAFAM, s'ils étaient un pays, « le 33e plus grand émetteur, après les Philippines et devant l'Algérie », indique The Guardian.

La prise en compte des différents « scopes » dans la comptabilité des émissions est également essentielle. Pour rappel, le « scope 1 » correspond aux émissions de gaz à effet de serre (GES) directement émises par les activités de l’entreprise (émissions directes de gaz à effet de serre issues de combustibles fossiles) tandis que le « scope 2 » couvre également les émissions de GES indirectes associées à la consommation d’énergie, qui surviennent en dehors des installations de l’entreprise (dans le cas des data centers, essentiellement le contenu carbone de l'électricité consommée)(4).

Or, Meta fait état d'une émission de 273 tonnes d'équivalent CO2 dans le cadre de ce scope 2, tandis que les émissions basées sur la localisation des data centers reviendraient à un total de plus de... 3,8 millions de tonnes d'équivalent CO2, estime The Guardian.

Doivent encore s'ajouter les émissions du « scope 3 » qui incluent les émissions « indirectes » résultant des activités d'une organisation mais qui se situent en dehors de son contrôle direct (ce qui concerne les data centers loués par les GAFAM selon The Guardian).

Face aux besoins croissants d'électricité bas carbone (notamment pour le secteur numérique), « il pourrait être presque impossible, même pour les entreprises les mieux intentionnées, de mettre en ligne de nouvelles capacités de production d’énergie renouvelable à temps pour répondre à cette demande », juge The Guardian en conclusion.

Sources / Notes

1/ Data center emissions probably 662% higher than big tech claims. Can it keep up the ruse?, The Guardian, 15 septembre 2024.
2/ Electricity 2024 - Analysis and forecast to 2026, AIE, janvier 2024.
3/ AI is poised to drive 160% increase in data center power demand, Goldman Sachs, 14 mai 2024.
4/ Scope 1, 2 et 3 du bilan carbone : définition, périmètres, exemples, bpi France, avril 2024.
https://www.connaissancedesenergies.org ... ian-240920

supert
Gaz naturel
Gaz naturel
Messages : 1045
Inscription : 23 août 2023, 16:40

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par supert » 21 sept. 2024, 14:43

Je suis étonné ! Qu'une chose jugée négativement soit minimisée par de grandes multinationales vénérées, c'est vraiment surprenant !
Je suppose que cela est dû à quelques sous-fifres magouilleurs, peut-être même quelques sur-fifres, mais il ne me viendrait pas à l'idée d'interroger le modèle qui donne cela. Et en tout cas, pas question de remettre en cause nos liens avec ses entités respectables.

Mon copain Morris (Philippe pour les intimes) est persuadé que les responsables principaux des magouilles d'une entreprise sont les responsables principaux de cette entreprise. Quel con !


Supert qui est énervé quand il est vénéré.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 21 sept. 2024, 14:55

supert a écrit :
21 sept. 2024, 14:43
Je suis étonné ! Qu'une chose jugée négativement soit minimisée par de grandes multinationales vénérées, c'est vraiment surprenant !
Je suppose que cela est dû à quelques sous-fifres magouilleurs, peut-être même quelques sur-fifres, mais il ne me viendrait pas à l'idée d'interroger le modèle qui donne cela. Et en tout cas, pas question de remettre en cause nos liens avec ses entités respectables.

Mon copain Morris (Philippe pour les intimes) est persuadé que les responsables principaux des magouilles d'une entreprise sont les responsables principaux de cette entreprise. Quel con !
Supert fera le rapprochement avec le fait que Microsoft veuille acheter une grosse quantité d'électricité à l'énergéticien américain Constellation telle que ca justifie de redemarrer un réacteur nucléaire.
voir américain ce post de hier : http://www.oleocene.org/phpBB3/viewtopi ... 8#p2399088

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 25 sept. 2024, 22:59

Les data centers menacés d'obsolescence à cause de l'essor de l'IA
ENQUÊTE. Jusqu'à 80% des data centers seraient inadaptables aux besoins délirants de l'intelligence artificielle, alertent des acteurs du secteur. Pour tenter de répondre à la consommation insatiable des grands modèles d'OpenAI et Meta, ces infrastructures deviennent de plus en plus gigantesques, créant des tensions inédites sur le foncier, notamment à Marseille.

Marine Protais LaTribune 25 Sept 2024,

Chaque semaine, Fabrice Coquio, président de Digital Realty France, reçoit plusieurs propositions d'achat de data centers. Mais il s'y intéresse rarement. « Ils sont souvent mal situés, loin des principaux hubs de connectivité, et surtout, ils ne sont pas conçus pour répondre aux besoins grandissants de l'intelligence artificielle (IA) », explique-t-il.

Avant de trancher : « Il faudrait les détruire et tout reconstruire ».

Cette affirmation étonne, mais l'homme ne la prononce pas à la légère. Digital Realty est l'un des principaux opérateurs de data centers en France. L'entreprise américaine a généré un chiffre d'affaires global de 5,4 milliards de dollars en 2023. Elle gère 300 bâtiments dans le monde, dont 17 entre Paris et Marseille. Elle se situe donc en première ligne face à cette révolution qui transforme le secteur. La mise en vente de centres devenus obsolètes est l'un de symptômes les plus parlants de cette transformation.

En cause ? L'arrivée des applications d'IA générative, comme ChatGPT dès fin 2022, qui repoussent les limites des data centers. Les nouveaux modèles de langage tels que GPT-4 (d'OpenAI) ou LLaMA (de Meta), ainsi que les nombreux logiciels qui s'appuient sur ces modèles, nécessitent une puissance de calcul immense. Résultat, les serveurs doivent être plus performants, grâce à des processeurs graphiques (GPU) ou, dans le cas de Google, des unités de traitement de tenseur (Tensor processing unit ou TPU). Ceux-ci entraînent une hausse considérable de la consommation d'énergie dans les data centers, bien que ces nouveaux processeurs améliorent leur efficacité énergétique d'année en année.

Explosion de la consommation énergétique

« Ces infrastructures consomment jusqu'à dix fois plus que l'informatique traditionnelle », estime Régis Castagné, directeur général d'Equinix, autre leader du secteur, avec 8,2 milliards de revenus en 2023 et 260 data centers dans le monde. Selon un rapport de Goldman Sachs, la demande en énergie des centres de données augmentera de 160% d'ici à 2030. « C'est un changement majeur », confirme Dave Salvator, directeur produit des infrastructures de calcul de Nvidia, principal fournisseur des indispensables processeurs aux grands modèles de langage.

« Pendant des années, les infrastructures avaient finalement assez peu évolué, c'étaient des fermes de CPU (central processing unit). Puis cela s'est progressivement transformé avec l'arrivée des GPU il y a environ dix ans. »

L'accélération est encore plus marquée depuis 2024. Car si les phases d'entraînement des grands modèles de langage concernent une poignée de firmes technologiques et peuvent se dérouler dans des centres excentrés, comme à Mulhouse, dans le data center en construction de Microsoft, le déploiement de ces modèles pour des applications en entreprise nécessite lui aussi d'importants calculs, qui doivent se faire au sein de hubs de connectivité, situés à Paris ou Marseille en France.

Les data centers poussés au gigantisme

Pour satisfaire cette boulimie énergétique, les data centers prennent des proportions toujours plus grandes. Le futur centre de Digital Realty à Dugny, près de l'aéroport du Bourget, en région parisienne, s'étalera sur 41.000 mètres carrés pour une puissance de 200 mégawatts, « soit un cinquième de tranche nucléaire », précise Fabrice Coquio.

À La Courneuve (Seine-Saint-Denis), l'opérateur gère déjà un centre de 130 mégawatts en forme de soucoupe géante, souvent confondu avec le stade de France vu du ciel. Microsoft a, de son côté, annoncé agrandir ses centres de données à Marseille et Paris.

« La taille est un critère important, justifie-t-il. Car cela permet d'être capable de réallouer de la puissance électrique facilement en cas de besoin pour un projet d'IA », explique Fabrice Coquio.

Cette densité énergétique accrue génère une chaleur telle que les systèmes de refroidissement traditionnels ne suffisent plus. « Il faut plus d'espacement entre les serveurs, mettre davantage de couloirs de refroidissement », explique Régis Castagné, directeur France d'Equinix.

Pourtant, même ces aménagements ne sont plus suffisants quand on atteint un certain niveau de densité. Pour résoudre ce problème, l'industrie se tourne vers le « direct liquid cooling » (DLC). Cette méthode consiste à injecter un mélange d'eau et de glycol dans des serveurs conçus à cet effet. Car l'eau a l'avantage de mieux dissiper la chaleur que l'air.

Equinix comme Digital Realty disposent d'infrastructures de direct liquid cooling dans quelques-uns de leurs data centers. Mais la technologie est loin d'être déployée partout. Pour obtenir un tel système, Fabrice Coquio estime qu'il faut rajouter 7 à 8% d'investissement supplémentaire par mètre carré sur un data center neuf. « C'est ensuite rentable, car c'est un système de refroidissement plus efficace énergétiquement, mais il faut avoir les moyens financiers d'investir en avance », ajoute-t-il. Pour modifier un bâtiment existant et le rendre compatible au DLC, c'est 16% d'investissement supplémentaire, soit le double, et des mois de travaux, estime le dirigeant.

Outre les prérequis en matière de densité énergétique et de refroidissement, « il y a également une problématique de stockage des données », ajoute Habib Messaoudi, responsable du département Applications, Data et IA de la société de service informatique Kyndryl.

« Les modèles d'IA nécessitent énormément de données. Et une fois qu'ils sont déployés, ils ont besoin d'accéder aux données rapidement avec très peu de latence, donc cela nécessite différentes technologies de stockage haute performance », précise-t-il.

Coûts vertigineux

Ces métamorphoses entraînent des coûts vertigineux. « Les géants de la tech dépensent des dizaines, et bientôt des centaines de milliards de dollars dans de nouvelles infrastructures. Des montants jamais atteints, même au plus fort de la révolution du cloud », se souvient Fabrice Coquio.

Pour les cinq prochaines années, Equinix compte de son côté investir 1,6 milliard d'euros dans quatre nouveaux data centers. C'est plus que le total investi par l'entreprise dans l'Hexagone ces quinze dernières années (1,2 milliard d'euros).

Par ailleurs, cette explosion des coûts et de la complexité technologique concentrent les capacités de calcul chez les géants de l'IA et les opérateurs de data centers. Les entreprises hors tech, grands groupes comme PME, auront plus de mal à implémenter ces changements, rendant la conservation de leurs salles informatiques de moins en moins viable.

Selon la fédération professionnelle France Data Center, 80% du parc privé serait aujourd'hui quasi obsolète. Ou, en tout cas, non-utilisable pour des applications d'IA générative.

« Une salle informatique de 100 mètres carrés, ce que l'on trouve généralement au sein des entreprises, ne peut être transformée pour l'IA du jour au lendemain. Il faut changer l'infrastructure, le raccordement au réseau d'Enedis, les tableaux électriques... Cela revient à utiliser une 4L pour faire une course de Formule 1 : ce n'est pas possible ! »

Ce qui explique la raison pour laquelle Stellantis ou des géants de la banque et de l'assurance vendent l'ensemble de leurs parcs. Régis Castagné ajoute que ce mouvement est également poussé par de nouvelles obligations environnementales, comme la Corporate Sustainability Reporting Directive (CSRD). Cette dernière entrera en vigueur en 2025. Elle oblige les entreprises à publier des rapports de transparence sur leurs data centers, à avoir un P.U.E (un indicateur d'efficacité énergétique) et à atteindre des objectifs d'efficacité énergétique que la majorité des data centers n'ont pas atteints.

Crise de croissance

Le problème, c'est aussi la vitesse de cette transformation. Depuis trois ans, on ne compte plus les sorties de nouveaux modèles, qui chaque mois, voire semaine, gagnent en capacité. Mais construire de nouveaux data centers prend au moins cinq ans. « Il faut donc également adapter l'existant. De manière générale, l'industrie n'est pas prête », explique Régis Castagné.

Equinix estime tout de même pouvoir convertir une centaine de ses 265 centres dans le monde à l'IA générative. Le restant est trop ancien pour accueillir la puissance électrique et les infrastructures de liquid cooling nécessaires. Mais ils ne seraient pas non plus à jeter à la poubelle, tempère le dirigeant. « Il y a encore une informatique traditionnelle qui en a besoin. L'IA ne représente pas l'informatique mondiale. C'est une petite partie du marché, même si elle grandit très vite ».

Des tensions à Marseille

Cette différence de temporalité entre la vitesse des modèles d'IA et le temps de l'infrastructure de l'autre, créée une tension inédite. En juin dernier, The Information rapportait que Jensen Huang, PDG de Nvidia, serait particulièrement inquiet par la lenteur de ses principaux clients - les géants du cloud Amazon et Microsoft - à s'adapter.

Ces mastodontes, qui investissent pourtant des centaines de milliards de dollars, ne construiraient pas assez vite de nouvelles infrastructures de calcul à ses yeux. Le sujet a fait l'objet d'une série de réunions avec les hauts cadres de l'entreprise, précise le média américain.

Mais jusqu'où les data centers peuvent-ils s'étendre pour satisfaire les besoins insatiables des géants de l'IA ? A Marseille où ces centres se multiplient, attirés par les 18 câbles sous-marins qui arrivent sur les plages du Prado, ils entrent en concurrence directe avec d'autres activités économiques, mais aussi la préservation des sols et de la biodiversité.

« Quand j'ai commencé mon mandat, il y avait deux data centers sur le port de Marseille, aujourd'hui le cinquième est en construction, raconte Christophe Mirmand, préfet de la région Provence-Alpes-Côte d'Azur. Six autres sont en projet en dehors de la zone du port qui est désormais saturée. Et quatre autres sont également en projet dans d'autres communes proches », expose-t-il.

Cette « crise de croissance » du secteur, comme la nomme le préfet, est devenue un enjeu politique et sociétal majeur pour la métropole et sa région. En témoignent les fortes tensions autour du "MRS5", le cinquième centre de données de Digital Realty sur le port de Marseille, qui fait l'objet d'une enquête publique jusqu'au 27 septembre.

Il y a quelques jours, des associations ont tenu une conférence de presse dénonçant l'accaparement du foncier par l'entreprise américaine et les conflits d'usages qui en émergeaient.

« Il faut choisir entre l'électrification des bus ou des quais pour les bateaux de croisière ou encore celle de ces data centers, qui accaparent ainsi l'énergie disponible en lieu et place de nos infrastructures et services publics. Faudra-t-il un jour choisir entre alimenter un data center ou un hôpital ? », s'interroge le collectif « Le nuage était sous nos pieds ».

Bientôt l'ère des giga data centers

Ailleurs, cette frénésie de construction commence déjà à trouver des limites physiques. En Irlande, où la consommation électrique des data centers dépassent depuis juillet celles des maisons en ville, la région de Dublin est désormais soumise à un moratoire sur la construction de nouveaux data centers. L'opérateur EirGrid a déclaré qu'il ne se pencherait sur aucune nouvelle demande d'agrément avant 2028.

Pourtant, l'ambition des géants du secteur ne semble pas avoir pris en considération ces limites. Selon The Information, deux entreprises de la tech seraient en train d'envisager la construction de deux « giga data centers » aux Etats-Unis, qui consommeraient au départ 1 gigawatt, pour arriver d'ici à quelques années à une consommation de 5 à 10 gigawatts - contre autour de 200 mégawatts pour les plus gros en France -, coûtant chacun 125 milliards de dollars.
https://www.latribune.fr/technos-medias ... 07271.html

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 09 nov. 2024, 23:34

L’idée de génie de ce DATACENTER 💡 vidéo 35 mn, https://www.youtube.com/watch?v=SMdrEJ2hpIo

Monsieur Bidouille
309 k abonnés
266 395 vues 12 mars 2024 #datacenter #énergie #cloud
Plus d'infos sur Infomaniak : https://www.infomaniak.com

Ok on trouve des vidéos de visites de datacenter, mais des vidéos qui vous explique comment ça marche en détail avec un datacenter tout neuf équipé d’un système de refroidissement unique ?
Je vous emmène faire un tour chez Infomaniak à Genève !



Image

--------------------------------------

il s'agit des data center D3 et D4 de Infomaniak à Genève. Système de pompe à chaleur de D4 qui récupère intégralement les 1.25 MW de chaleur du data center comme source chaude vers 40 ° pour une pompe à chaleur qui la monte à 67 ° pour un réseau de chaleur qui alimente un nouveau quartier.

Avatar de l’utilisateur
kercoz
Hydrogène
Hydrogène
Messages : 13563
Inscription : 18 nov. 2007, 21:46
Localisation : SUD GIRONDE GRAVE DE GRAVE

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par kercoz » 10 nov. 2024, 09:04

J'ai entendu qu'une requête sur un IA consommait 10 fois plus d'énergie .....ici on me 30 fois plus :
https://www.sciencesetavenir.fr/high-te ... ble_180779

""""Une intelligence artificielle (IA) générative utilise "30 fois plus d'énergie" qu'un moteur de recherche classique, alerte la chercheuse Sasha Luccioni, spécialisée dans l'impact environnemental de l'IA."""
L'Homme succombera tué par l'excès de ce qu'il appelle la civilisation. ( Jean Henri Fabre / Souvenirs Entomologiques)

Avatar de l’utilisateur
GillesH38
Hydrogène
Hydrogène
Messages : 30055
Inscription : 10 sept. 2005, 17:07
Localisation : Berceau de la Houille Blanche !
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par GillesH38 » 10 nov. 2024, 09:09

ça pourrait etre acceptable si c'était 10 fois plus fiable. Mais ce n'est pas le cas.
Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas".

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 11 nov. 2024, 11:28

Sobriété numérique : l'Ademe appelle à agir sur les data centers

L'Ademe a publié deux études consacrées à l'impact environnemental du secteur numérique, à l'occasion du GreenTech Forum(1). Elle y souligne entre autres la place croissante des data centers.

6% de la consommation française d'électricité en 2050

En 2020, le secteur numérique « représentait 2,5% de l’empreinte carbone annuelle de la France (équivalent au secteur des déchets) et 10% de sa consommation électrique » selon l'Ademe. Si cette dernière souligne l'importance de faire preuve de davantage de sobriété numérique, les data centers, bâtiments contenant des serveurs dans lesquels sont stockées et traitées une masse grandissante de données, sont souvent au centre de l'attention.

Ces centres de données compteraient actuellement pour environ 42% de l'empreinte carbone du secteur numérique en France (environ 25 Mt de gaz à effet de serre en équivalent CO2 en 2020), selon l'Ademe. La majorité de cette empreinte provient de data centers situés à l'étranger et hébergeant les données d'utilisateurs français.

Et cette empreinte carbone des data centers va s'accroître dans le futur, assure l'Ademe, compte tenu de la hausse attendue du volume de données (+ 20% par an). L'Agence de la transition écologique estime ainsi qu'ils pourraient absorber 6% de la consommation d'électricité en France en 2050 (avec une consommation annuelle avoisinant 35 TWh à cet horizon). Le gestionnaire de réseau RTE estime pour sa part que leur consommation pourrait atteindre entre 23 et 28 TWh dès 2035 (contre environ 10 TWh par an au début de cette décennie 2020).

À l'échelle européenne, les data centers pourraient consommer près 98,5 TWh en 2030 selon l'Agence européenne de l'environnement(2), soit 28% de plus qu'en 2018 (76,8 TWh). Rappelons que l'AIE envisage une croissance beaucoup plus forte au niveau mondial avec une hausse de consommation de plus de 75% en seulement... 2 ans : entre le niveau de 2024 (environ 460 TWh) et celui de 2026 (un peu plus de 800 TWh). Cette croissance accélérée est notamment tirée par le déploiement massif de l'intelligence artificielle.

Des pistes pour réduire l'impact des data centers

L'installation d'un data center sur un territoire doit être anticipée, souligne l'Ademe : elle doit être accompagnée pour anticiper ses impacts et maximiser les bénéfices économiques et énergétique possibles, avec notamment la valorisation de la chaleur « fatale » (énergie thermique produite par un procédé dont elle n’est pas la finalité).

Cette chaleur fatale générée dans les data centers par les serveurs informatiques peut être récupérée pour chauffer des équipements, des bâtiments ou alimenter un réseau de chaleur(3). C'est même une exigence inscrite dans la réglementation européenne pour les data centers de plus de 1MW de puissance installée (à moins que cette utilisation ne soit pas « techniquement ou économiquement viable »). À l'heure actuelle, le potentiel de chaleur fatale récupérable dans les data centers en France est estimé à environ 1 TWh par an, indique l'Ademe.

Plus globalement, « des gains d’efficacité énergétique de plus de 50% sont atteignables dès aujourd’hui » dans les data centers, souligne l'Agence qui détaille les actions permettant de réduire la consommation d'électricité des data centers et in fine leur impact carbone(4) : améliorer l'efficacité énergétique des serveurs ainsi que du système de refroidissement de ceux-ci (en choisissant des modèles avec des plages de fonctionnement en température élargies), limiter la consommation de veille des serveurs(5) (sachant que ceux-ci sont utilisés en moyenne 30% du temps), etc.

Précisons que le PUE (Power Usage Effectiveness) constitue l'indicateur de référence pour mesurer l’efficience d'un data center : il indique le ratio entre l’énergie totale consommée par le data center et l’énergie consommée pour le travail utile, la partie informatique. En France, le PUE moyen des data centers est de 1,7 alors qu'il devrait « tendre vers 1,2, valeur maximale acceptable pour les nouvelles installations », indique l'Ademe.

dernière modification le 07 novembre 2024

Sources / Notes

1/ GreenTech Forum est un rendez-vous professionnel au numérique et à l'environnement qui a lieu à Paris ces 5 et 6 novembre 2024.
2/ Directive (EU) 2023/1791 of the European Parliament and of the Council of 13 September 2023 on energy efficiency and amending Regulation (EU) 2023/955 (recast).
3/ La température de la chaleur fatale récupérable est « au maximum autour de 60°C, nécessitant la relève de celle-ci par pompe à chaleur pour le couplage aux réseaux de chaleurs urbains », souligne l'Ademe.
4/ L'Ademe recommande de conclure des achats directs d'électricité d'origine renouvelable pour stimuler le développement de nouvelles unités de production.
5/ Le règlement européen 2019/424 spécifie des consommations de veille maximale qui sont communément de l’ordre de 150 W.
https://www.connaissancedesenergies.org ... ta-centers

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 11 nov. 2024, 18:50

suite de 4 posts au dessus au sujet du data center de Infomaniak à Genève. Clubic avait fait un article la dessus en juin 2024.
Un data center, construit sous des habitations, revalorise 100% de son énergie : visite guidée d'une installation hors norme

Par Alexandre Boero, Journaliste-reporter, le 01 juin 2024
https://www.clubic.com/actualite-528513 ... norme.html

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 14 nov. 2024, 08:57

Toujours plus nombreux en Seine-Saint-Denis : le plus grand data center de France bientôt érigé à Dugny
La construction du centre de données de plus de 40 000 m2 au sol, devrait démarrer dès l’été 2025, à Dugny (Seine-Saint-Denis). Alors que l’enquête publique se termine ce vendredi 15 novembre, ce paquebot doit prendre place à proximité de l’aéroport du Bourget et d’habitations. Ce qui suscite une petite opposition.

Par Mathilde Debarre Le 13 novembre 2024

Avec une superficie au sol de 41 500 m², la plus grande « usine numérique » de France sortira de terre d’ici à l’an prochain à Dugny (Seine-Saint-Denis), détrônant ainsi le data center de La Courneuve. Sa construction, dont le coût total est estimé à 2 milliards d’euros, devrait commencer à l’été 2025, pour une durée de trois à quatre ans.

Cet immense centre de données sera érigé sur un ancien terrain militaire de dix hectares, à la limite de l’aéroport du Bourget et à presque 7 km de Paris. En attendant, l’enquête publique sur le projet se termine ce vendredi 15 novembre.

S’abonner pour lire la suite
https://www.leparisien.fr/seine-saint-d ... abitations.

2milliards € sur 41500 m2 ca fait une moyenne de 48.2 k€ de matos par m2 ! genre au doigt mouillé 10 serveurs à 4 k piece plus 8 k€ de servitudes !

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 28 nov. 2024, 15:38

La multiplication des datacenters met le réseau électrique sous tension

Portées par l’essor de l’intelligence artificielle et du cloud, les annonces de nouveaux centres de données affluent, obligeant les gestionnaires de réseaux d’électricité à renforcer leurs infrastructures.

Pauline Bandelier 26 novembre 2024

Image
Le datacenter d’Equinix, à Saint-Denis, est l’un des rares à récupérer la chaleur fatale émise par ses machines..


La multiplication des datacenters met le réseau électrique sous tension© Côme Sittler
Le datacenter d’Equinix, à Saint-Denis, est l’un des rares à récupérer la chaleur fatale émise par ses machines..

Vingt mètres de hauteur, 40000 m² de salles informatiques et 1 milliard d’euros d’investissement. Situé le long de l’A86, à La Courneuve (Seine-Saint-Denis), le plus gros centre de données de France est un bâtiment circulaire, posé sur un terrain jusqu’alors occupé par les usines d’Airbus Helicopters. Le long de vastes couloirs déserts, des salles remplies d’armoires hébergent les serveurs où sont stockées les données des clients. À l’intérieur, se dégagent un ronronnement continu et une chaleur d’environ 34 °C. Pour y accéder, il faut passer par sept sas de sécurité. Actuellement, seul un quart du bâtiment, baptisé PAR8, est occupé par les clients d’Interxion, filiale de l’américain Digital Realty, le leader mondial de la gestion de datacenters. Mais, assure Louis-Marie Le Leuch, le directeur énergie et climat de la multinationale, «la demande est très importante et le bâtiment se remplit rapidement».

... abonnés
https://www.usinenouvelle.com/article/l ... n.N2221269

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 14 déc. 2024, 16:05

Le trafic internet est en hausse de 17.2% en 2024, selon Cloudflare : voici les 10 services les plus populaires
Cloudflare publie sa rétrospective de l’année 2024 et évoque une forte augmentation du trafic mondial. Celui-ci a aussi publié des classements des services les plus populaires, et évoque une (très) forte progression de Starlink.

le 11 décembre 2024

La société Cloudflare vient de publier sa rétrospective de l’année 2024 et d’après celle-ci, le trafic internet mondial continue d’augmenter. En effet, d’après les données de celle-ci, ce trafic augmente de 17,2 %. Cloudflare évoque également une tendance, qu’il avait déjà observée en 2022 et en 2023. Au cours du premier semestre, le trafic a stagné. Cependant, à partir de mi-août, le trafic internet mondial a fortement augmenté, pour atteindre cette croissance de 17,2 %.

Quels sont les services les plus populaires ?
Cloudflare a aussi publié son Top 10 des services sur internet les plus populaires dans le monde :

1 Google
2 Facebook
3 Apple
4 TikTok
5 AWS
6 Microsoft
7 Instagram
8 YouTube
9 Amazon
10 WhatsApp

Intelligence artificielle générative : les services les plus populaires
Pour le moment, ChatGPT ne figure pas dans le Top 10 de Cloudflare. Cependant, d’après celui-ci, les outils d’intelligence artificielle générative continuent leur “ascension fulgurante” en 2024. Par ailleurs, Cloudflare a aussi publié un Top 10 des outils d’intelligence artificielle générative :

ChatGPT (OpenAI)
Character.AI
Codeium
QuillBot
Claude (Anthropic)
Perplexity
GitHub Copilot
Wordtune
Poe
Tabnine

Le trafic de Starlink a été multiplié par 3,3
.........
https://www.presse-citron.net/le-trafic ... opulaires/

en ce qui me concerne mon top c'est Google Microsoft Youtube et Whatsapp. Pour les 6 autres cités c'est en principe Zéro utilisation.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97844
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 77 milliards de kilowattsheures/an

Message par energy_isere » 03 janv. 2025, 13:10

En France, des milliards d'investissements prévus dans des datacenters dédiés à l'IA

Alors que la France a fait de l’hébergement des données liées à l’IA l’une des priorités de sa souveraineté numérique, elle ne compte actuellement presque aucun centre de données adapté. Pour tenter d’inverser la tendance, les annonces de nouveaux projets se multiplient depuis quelques mois. Les acteurs du secteur attendent beaucoup du projet de loi de simplification qui devrait être adopté au début de l’année 2025.

Pauline Bandelier 01 janvier 2025

4 milliards d’euros d’investissement annoncés par Microsoft en 2024, 2,5 milliards par Iliad, 1,2 milliard par Amazon… Les acteurs des centres de données prévoient 12 milliards d’euros d’investissements au total en France sur dix ans. Ce qui représente une dizaine de centres de données de plus de 100 MW d’ici à 2030, essentiellement en région parisienne, quatrième zone au monde pour le trafic de données.

Il faut dire que si l’Hexagone comptait 315 centres de données sur son territoire en 2024 (contre 521 en Allemagne et 514 au Royaume-Uni), le pays n’en compte pratiquement aucun adapté à l’intelligence artificielle. Et ce, alors qu’il a fait de l’hébergement des données liées à l’IA l’une des priorités de sa souveraineté numérique.

Des délais de raccordement qui s’allongent ... abonnés
https://www.usinenouvelle.com/editorial ... a.N2224347

Répondre