serveurs informatiques 77 milliards de kilowattsheures/an

Répondre


Cette question vous permet de vous prémunir contre les soumissions automatisées et intensives effectuées par des robots malveillants.
Émoticônes
:D :geek: :ugeek: :ghost: :wtf: :-D :) :-) :-( :-o :shock: :? 8-) :lol: :-x :-P :oops: :cry: :evil: :twisted: :roll: ;) ;-) :!: :?: :idea: :arrow: :-| :mrgreen: =D> #-o =P~ :^o [-X [-o< 8-[ [-( :-k ](*,) :-" O:) =; :-& :-({|= :-$ :-s \:D/ :-#
Plus d’émoticônes

Le BBCode est activé
La balise [img] est activée
La balise [flash] est activée
La balise [url] est activée
Les émoticônes sont activées

Relecture du sujet
   

Agrandir Relecture du sujet : serveurs informatiques 77 milliards de kilowattsheures/an

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 25 sept. 2024, 22:59

Les data centers menacés d'obsolescence à cause de l'essor de l'IA
ENQUÊTE. Jusqu'à 80% des data centers seraient inadaptables aux besoins délirants de l'intelligence artificielle, alertent des acteurs du secteur. Pour tenter de répondre à la consommation insatiable des grands modèles d'OpenAI et Meta, ces infrastructures deviennent de plus en plus gigantesques, créant des tensions inédites sur le foncier, notamment à Marseille.

Marine Protais LaTribune 25 Sept 2024,

Chaque semaine, Fabrice Coquio, président de Digital Realty France, reçoit plusieurs propositions d'achat de data centers. Mais il s'y intéresse rarement. « Ils sont souvent mal situés, loin des principaux hubs de connectivité, et surtout, ils ne sont pas conçus pour répondre aux besoins grandissants de l'intelligence artificielle (IA) », explique-t-il.

Avant de trancher : « Il faudrait les détruire et tout reconstruire ».

Cette affirmation étonne, mais l'homme ne la prononce pas à la légère. Digital Realty est l'un des principaux opérateurs de data centers en France. L'entreprise américaine a généré un chiffre d'affaires global de 5,4 milliards de dollars en 2023. Elle gère 300 bâtiments dans le monde, dont 17 entre Paris et Marseille. Elle se situe donc en première ligne face à cette révolution qui transforme le secteur. La mise en vente de centres devenus obsolètes est l'un de symptômes les plus parlants de cette transformation.

En cause ? L'arrivée des applications d'IA générative, comme ChatGPT dès fin 2022, qui repoussent les limites des data centers. Les nouveaux modèles de langage tels que GPT-4 (d'OpenAI) ou LLaMA (de Meta), ainsi que les nombreux logiciels qui s'appuient sur ces modèles, nécessitent une puissance de calcul immense. Résultat, les serveurs doivent être plus performants, grâce à des processeurs graphiques (GPU) ou, dans le cas de Google, des unités de traitement de tenseur (Tensor processing unit ou TPU). Ceux-ci entraînent une hausse considérable de la consommation d'énergie dans les data centers, bien que ces nouveaux processeurs améliorent leur efficacité énergétique d'année en année.

Explosion de la consommation énergétique

« Ces infrastructures consomment jusqu'à dix fois plus que l'informatique traditionnelle », estime Régis Castagné, directeur général d'Equinix, autre leader du secteur, avec 8,2 milliards de revenus en 2023 et 260 data centers dans le monde. Selon un rapport de Goldman Sachs, la demande en énergie des centres de données augmentera de 160% d'ici à 2030. « C'est un changement majeur », confirme Dave Salvator, directeur produit des infrastructures de calcul de Nvidia, principal fournisseur des indispensables processeurs aux grands modèles de langage.

« Pendant des années, les infrastructures avaient finalement assez peu évolué, c'étaient des fermes de CPU (central processing unit). Puis cela s'est progressivement transformé avec l'arrivée des GPU il y a environ dix ans. »

L'accélération est encore plus marquée depuis 2024. Car si les phases d'entraînement des grands modèles de langage concernent une poignée de firmes technologiques et peuvent se dérouler dans des centres excentrés, comme à Mulhouse, dans le data center en construction de Microsoft, le déploiement de ces modèles pour des applications en entreprise nécessite lui aussi d'importants calculs, qui doivent se faire au sein de hubs de connectivité, situés à Paris ou Marseille en France.

Les data centers poussés au gigantisme

Pour satisfaire cette boulimie énergétique, les data centers prennent des proportions toujours plus grandes. Le futur centre de Digital Realty à Dugny, près de l'aéroport du Bourget, en région parisienne, s'étalera sur 41.000 mètres carrés pour une puissance de 200 mégawatts, « soit un cinquième de tranche nucléaire », précise Fabrice Coquio.

À La Courneuve (Seine-Saint-Denis), l'opérateur gère déjà un centre de 130 mégawatts en forme de soucoupe géante, souvent confondu avec le stade de France vu du ciel. Microsoft a, de son côté, annoncé agrandir ses centres de données à Marseille et Paris.

« La taille est un critère important, justifie-t-il. Car cela permet d'être capable de réallouer de la puissance électrique facilement en cas de besoin pour un projet d'IA », explique Fabrice Coquio.

Cette densité énergétique accrue génère une chaleur telle que les systèmes de refroidissement traditionnels ne suffisent plus. « Il faut plus d'espacement entre les serveurs, mettre davantage de couloirs de refroidissement », explique Régis Castagné, directeur France d'Equinix.

Pourtant, même ces aménagements ne sont plus suffisants quand on atteint un certain niveau de densité. Pour résoudre ce problème, l'industrie se tourne vers le « direct liquid cooling » (DLC). Cette méthode consiste à injecter un mélange d'eau et de glycol dans des serveurs conçus à cet effet. Car l'eau a l'avantage de mieux dissiper la chaleur que l'air.

Equinix comme Digital Realty disposent d'infrastructures de direct liquid cooling dans quelques-uns de leurs data centers. Mais la technologie est loin d'être déployée partout. Pour obtenir un tel système, Fabrice Coquio estime qu'il faut rajouter 7 à 8% d'investissement supplémentaire par mètre carré sur un data center neuf. « C'est ensuite rentable, car c'est un système de refroidissement plus efficace énergétiquement, mais il faut avoir les moyens financiers d'investir en avance », ajoute-t-il. Pour modifier un bâtiment existant et le rendre compatible au DLC, c'est 16% d'investissement supplémentaire, soit le double, et des mois de travaux, estime le dirigeant.

Outre les prérequis en matière de densité énergétique et de refroidissement, « il y a également une problématique de stockage des données », ajoute Habib Messaoudi, responsable du département Applications, Data et IA de la société de service informatique Kyndryl.

« Les modèles d'IA nécessitent énormément de données. Et une fois qu'ils sont déployés, ils ont besoin d'accéder aux données rapidement avec très peu de latence, donc cela nécessite différentes technologies de stockage haute performance », précise-t-il.

Coûts vertigineux

Ces métamorphoses entraînent des coûts vertigineux. « Les géants de la tech dépensent des dizaines, et bientôt des centaines de milliards de dollars dans de nouvelles infrastructures. Des montants jamais atteints, même au plus fort de la révolution du cloud », se souvient Fabrice Coquio.

Pour les cinq prochaines années, Equinix compte de son côté investir 1,6 milliard d'euros dans quatre nouveaux data centers. C'est plus que le total investi par l'entreprise dans l'Hexagone ces quinze dernières années (1,2 milliard d'euros).

Par ailleurs, cette explosion des coûts et de la complexité technologique concentrent les capacités de calcul chez les géants de l'IA et les opérateurs de data centers. Les entreprises hors tech, grands groupes comme PME, auront plus de mal à implémenter ces changements, rendant la conservation de leurs salles informatiques de moins en moins viable.

Selon la fédération professionnelle France Data Center, 80% du parc privé serait aujourd'hui quasi obsolète. Ou, en tout cas, non-utilisable pour des applications d'IA générative.

« Une salle informatique de 100 mètres carrés, ce que l'on trouve généralement au sein des entreprises, ne peut être transformée pour l'IA du jour au lendemain. Il faut changer l'infrastructure, le raccordement au réseau d'Enedis, les tableaux électriques... Cela revient à utiliser une 4L pour faire une course de Formule 1 : ce n'est pas possible ! »

Ce qui explique la raison pour laquelle Stellantis ou des géants de la banque et de l'assurance vendent l'ensemble de leurs parcs. Régis Castagné ajoute que ce mouvement est également poussé par de nouvelles obligations environnementales, comme la Corporate Sustainability Reporting Directive (CSRD). Cette dernière entrera en vigueur en 2025. Elle oblige les entreprises à publier des rapports de transparence sur leurs data centers, à avoir un P.U.E (un indicateur d'efficacité énergétique) et à atteindre des objectifs d'efficacité énergétique que la majorité des data centers n'ont pas atteints.

Crise de croissance

Le problème, c'est aussi la vitesse de cette transformation. Depuis trois ans, on ne compte plus les sorties de nouveaux modèles, qui chaque mois, voire semaine, gagnent en capacité. Mais construire de nouveaux data centers prend au moins cinq ans. « Il faut donc également adapter l'existant. De manière générale, l'industrie n'est pas prête », explique Régis Castagné.

Equinix estime tout de même pouvoir convertir une centaine de ses 265 centres dans le monde à l'IA générative. Le restant est trop ancien pour accueillir la puissance électrique et les infrastructures de liquid cooling nécessaires. Mais ils ne seraient pas non plus à jeter à la poubelle, tempère le dirigeant. « Il y a encore une informatique traditionnelle qui en a besoin. L'IA ne représente pas l'informatique mondiale. C'est une petite partie du marché, même si elle grandit très vite ».

Des tensions à Marseille

Cette différence de temporalité entre la vitesse des modèles d'IA et le temps de l'infrastructure de l'autre, créée une tension inédite. En juin dernier, The Information rapportait que Jensen Huang, PDG de Nvidia, serait particulièrement inquiet par la lenteur de ses principaux clients - les géants du cloud Amazon et Microsoft - à s'adapter.

Ces mastodontes, qui investissent pourtant des centaines de milliards de dollars, ne construiraient pas assez vite de nouvelles infrastructures de calcul à ses yeux. Le sujet a fait l'objet d'une série de réunions avec les hauts cadres de l'entreprise, précise le média américain.

Mais jusqu'où les data centers peuvent-ils s'étendre pour satisfaire les besoins insatiables des géants de l'IA ? A Marseille où ces centres se multiplient, attirés par les 18 câbles sous-marins qui arrivent sur les plages du Prado, ils entrent en concurrence directe avec d'autres activités économiques, mais aussi la préservation des sols et de la biodiversité.

« Quand j'ai commencé mon mandat, il y avait deux data centers sur le port de Marseille, aujourd'hui le cinquième est en construction, raconte Christophe Mirmand, préfet de la région Provence-Alpes-Côte d'Azur. Six autres sont en projet en dehors de la zone du port qui est désormais saturée. Et quatre autres sont également en projet dans d'autres communes proches », expose-t-il.

Cette « crise de croissance » du secteur, comme la nomme le préfet, est devenue un enjeu politique et sociétal majeur pour la métropole et sa région. En témoignent les fortes tensions autour du "MRS5", le cinquième centre de données de Digital Realty sur le port de Marseille, qui fait l'objet d'une enquête publique jusqu'au 27 septembre.

Il y a quelques jours, des associations ont tenu une conférence de presse dénonçant l'accaparement du foncier par l'entreprise américaine et les conflits d'usages qui en émergeaient.

« Il faut choisir entre l'électrification des bus ou des quais pour les bateaux de croisière ou encore celle de ces data centers, qui accaparent ainsi l'énergie disponible en lieu et place de nos infrastructures et services publics. Faudra-t-il un jour choisir entre alimenter un data center ou un hôpital ? », s'interroge le collectif « Le nuage était sous nos pieds ».

Bientôt l'ère des giga data centers

Ailleurs, cette frénésie de construction commence déjà à trouver des limites physiques. En Irlande, où la consommation électrique des data centers dépassent depuis juillet celles des maisons en ville, la région de Dublin est désormais soumise à un moratoire sur la construction de nouveaux data centers. L'opérateur EirGrid a déclaré qu'il ne se pencherait sur aucune nouvelle demande d'agrément avant 2028.

Pourtant, l'ambition des géants du secteur ne semble pas avoir pris en considération ces limites. Selon The Information, deux entreprises de la tech seraient en train d'envisager la construction de deux « giga data centers » aux Etats-Unis, qui consommeraient au départ 1 gigawatt, pour arriver d'ici à quelques années à une consommation de 5 à 10 gigawatts - contre autour de 200 mégawatts pour les plus gros en France -, coûtant chacun 125 milliards de dollars.
https://www.latribune.fr/technos-medias ... 07271.html

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 21 sept. 2024, 14:55

supert a écrit :
21 sept. 2024, 14:43
Je suis étonné ! Qu'une chose jugée négativement soit minimisée par de grandes multinationales vénérées, c'est vraiment surprenant !
Je suppose que cela est dû à quelques sous-fifres magouilleurs, peut-être même quelques sur-fifres, mais il ne me viendrait pas à l'idée d'interroger le modèle qui donne cela. Et en tout cas, pas question de remettre en cause nos liens avec ses entités respectables.

Mon copain Morris (Philippe pour les intimes) est persuadé que les responsables principaux des magouilles d'une entreprise sont les responsables principaux de cette entreprise. Quel con !
Supert fera le rapprochement avec le fait que Microsoft veuille acheter une grosse quantité d'électricité à l'énergéticien américain Constellation telle que ca justifie de redemarrer un réacteur nucléaire.
voir américain ce post de hier : http://www.oleocene.org/phpBB3/viewtopi ... 8#p2399088

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par supert » 21 sept. 2024, 14:43

Je suis étonné ! Qu'une chose jugée négativement soit minimisée par de grandes multinationales vénérées, c'est vraiment surprenant !
Je suppose que cela est dû à quelques sous-fifres magouilleurs, peut-être même quelques sur-fifres, mais il ne me viendrait pas à l'idée d'interroger le modèle qui donne cela. Et en tout cas, pas question de remettre en cause nos liens avec ses entités respectables.

Mon copain Morris (Philippe pour les intimes) est persuadé que les responsables principaux des magouilles d'une entreprise sont les responsables principaux de cette entreprise. Quel con !


Supert qui est énervé quand il est vénéré.

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 20 sept. 2024, 19:25

Data centers : les GAFAM minimisent fortement leur niveau réel d'émissions, selon The Guardian

le 20 septembre 2024

Les émissions de gaz à effet de serre des data centers détenus par les « GAFAM » (Google, Apple, Facebook, Amazon et Microsoft, couramment appelés « Big Tech » en anglais) seraient largement plus élevées que le niveau annoncé, selon une analyse du quotidien britannique The Guardian(1).

La consommation électrique des data centers en chiffres

En 2022, les data centers, les cryptomonnaies et l'intelligence artificielle (IA) auraient consommé près de 460 TWh d'électricité au niveau mondial, ce qui correspond à « presque 2% de la demande mondiale d'électricité », selon les dernières données de l'Agence internationale de l'énergie (AIE)(2).

Ces besoins pourraient s'élever entre 620 TWh et 1 050 TWh dès 2026, estime l'AIE selon différents scénarios, ce qui revient approximativement, en matière de consommation électrique, à « ajouter au moins l'équivalent de la Suède ou au plus de l'Allemagne ».

Les dynamiques de croissance sont plus ou moins fortes selon les régions du monde (on compte actuellement plus de 8 000 data centers dans le monde, dont 33% aux États-Unis et 16% en Europe). En Irlande, la demande des centres de données irlandais comptait déjà pour plus d'un cinquième de la consommation nationale d'électricité en 2023.

Et le développement de l'IA augmente la voracité du secteur : une requête auprès de ChatGPT engendre une consommation électrique environ 10 fois plus importante qu'une recherche sur Google, selon les estimations de Goldman Sachs(3).

Des émissions environ 662% supérieures au niveau déclaré

Dans ce contexte, les « GAFAM » multiplient les déclarations sur leurs actions visant à réduire l'impact climatique de leurs data centers. Mais selon The Guardian, « les émissions réelles des centres de données internes ou appartenant à Google, Microsoft, Meta et Apple sont probablement supérieures d’environ 662 % – soit 7,62 fois – aux niveaux officiellement déclarés » entre 2020 et 2022.

Les « Big Tech » useraient d'une « comptabilité créative » pour présenter un bilan plus flatteur en matière d'émissions : ils achètent en particulier des certificats d'énergie renouvelable. Mais, sans cette compensation, les émissions « basées sur la localisation » des data centers reviendraient, à faire des GAFAM, s'ils étaient un pays, « le 33e plus grand émetteur, après les Philippines et devant l'Algérie », indique The Guardian.

La prise en compte des différents « scopes » dans la comptabilité des émissions est également essentielle. Pour rappel, le « scope 1 » correspond aux émissions de gaz à effet de serre (GES) directement émises par les activités de l’entreprise (émissions directes de gaz à effet de serre issues de combustibles fossiles) tandis que le « scope 2 » couvre également les émissions de GES indirectes associées à la consommation d’énergie, qui surviennent en dehors des installations de l’entreprise (dans le cas des data centers, essentiellement le contenu carbone de l'électricité consommée)(4).

Or, Meta fait état d'une émission de 273 tonnes d'équivalent CO2 dans le cadre de ce scope 2, tandis que les émissions basées sur la localisation des data centers reviendraient à un total de plus de... 3,8 millions de tonnes d'équivalent CO2, estime The Guardian.

Doivent encore s'ajouter les émissions du « scope 3 » qui incluent les émissions « indirectes » résultant des activités d'une organisation mais qui se situent en dehors de son contrôle direct (ce qui concerne les data centers loués par les GAFAM selon The Guardian).

Face aux besoins croissants d'électricité bas carbone (notamment pour le secteur numérique), « il pourrait être presque impossible, même pour les entreprises les mieux intentionnées, de mettre en ligne de nouvelles capacités de production d’énergie renouvelable à temps pour répondre à cette demande », juge The Guardian en conclusion.

Sources / Notes

1/ Data center emissions probably 662% higher than big tech claims. Can it keep up the ruse?, The Guardian, 15 septembre 2024.
2/ Electricity 2024 - Analysis and forecast to 2026, AIE, janvier 2024.
3/ AI is poised to drive 160% increase in data center power demand, Goldman Sachs, 14 mai 2024.
4/ Scope 1, 2 et 3 du bilan carbone : définition, périmètres, exemples, bpi France, avril 2024.
https://www.connaissancedesenergies.org ... ian-240920

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 15 sept. 2024, 11:21

L'IA "accélère la crise climatique", alerte l'experte Sasha Luccioni

AFP •15/09/2024

Une intelligence artificielle (IA) générative utilise "30 fois plus d'énergie" qu'un moteur de recherche classique, alerte la chercheuse Sasha Luccioni qui veut sensibiliser la population à l'impact environnemental de cette nouvelle technologie.

Reconnue comme l'une des 100 personnalités les plus influentes du monde de l'IA par le magazine américain Time en 2024, cette Canadienne d'origine russe cherche depuis plusieurs années à quantifier les émissions de programmes comme ChatGPT ou Midjourney.

"Je trouve ça particulièrement décevant qu'on utilise l'IA générative pour faire une recherche sur Internet", déplore la chercheuse rencontrée par l'AFP à la conférence ALL IN dédiée à l'intelligence artificielle à Montréal.

Les modèles de langage sur lesquels ces IA se fondent exigent en effet d'énormes capacités de calcul pour s'entraîner sur des milliards de données, ce qui nécessite des serveurs puissants. A cela s'ajoute l'énergie consommée pour répondre aux requêtes d'un utilisateur.

Au lieu d'extraire des informations, "comme le ferait un moteur de recherche pour trouver la capitale d'un pays par exemple", ces IA "génèrent de nouvelles informations", rendant le tout "beaucoup plus énergivore", souligne-t-elle.

Selon l'Agence internationale de l'énergie (AIE), en combinant l'IA et le secteur des cryptomonnaies, les centres de données ont consommé près de 460 TWh d'électricité en 2022, soit 2% de la production mondiale totale.

- "Efficacité énergétique" -

Précurseure dans la recherche sur l'impact de l'IA sur le climat, Sasha Luccioni a participé en 2020 à la création d'un outil destiné aux développeurs pour quantifier l'empreinte carbone de l'exécution d'un morceau de code. "CodeCarbon" a depuis été téléchargé plus d'un million de fois.

Celle qui dirige la stratégie climatique de la startup Hugging Face, une plateforme de partage de modèles d'IA en libre accès, travaille désormais à la création d'un dispositif de certification des algorithmes.

Similaire à celui d'"Energy Star", qui attribue des notes selon la consommation énergétique d'un appareil aux Etats-Unis, ce programme, qu'elle compare aussi au Nutri-score français dans l'alimentaire, permettrait de connaître la consommation énergétique d'un modèle afin d'inciter les utilisateurs et développeurs à "prendre de meilleures décisions".

"On ne prend pas en compte l'eau ni les matériaux rares", reconnaît-elle, "mais au moins, on sait que pour une tâche spécifique, on peut mesurer l'efficacité énergétique et dire que ce modèle-là a un A+, puis ce modèle-là a un D", précise-t-elle.

- "Transparence" -

Afin de développer son outil, Sasha Luccioni l'expérimente sur des modèles d'IA générative accessibles à tous (open source) mais elle aimerait également le faire sur les modèles de Google ou encore OpenAI (le créateur de ChatGPT) qui restent pour l'instant réticents.

Bien qu'ils se soient engagés à parvenir à la neutralité carbone d'ici à la fin de la décennie, ces géants du monde de la tech voient leurs émissions de gaz à effet de serre augmenter en 2023 à cause de l'IA: +48% pour Google par rapport à 2019 et +29% pour Microsoft par rapport à 2020.

Si on ne fait rien pour réguler ces systèmes d'IA, "on accélère la crise climatique", soupire la trentenaire qui demande plus de transparence de la part de ces entreprises.

Et la solution, dit-elle, pourrait venir des gouvernements qui, pour l'instant, "naviguent à l'aveugle", sans savoir ce qu'il y a "dans les jeux de données ou comment sont entraînés les algorithmes".

"Une fois qu'on a la transparence, on peut commencer à légiférer", soutient l'experte.

- "Expliquer aux gens" -

Pour la chercheuse montréalaise, il faut aussi "expliquer aux gens ce que l'IA générative peut faire et ne peut pas faire, et à quel coût".

Dans sa dernière étude, celle qui fait de nombreuses interventions à l'international a ainsi démontré que produire une image en haute définition à l'aide d'une intelligence artificielle consomme autant d'énergie que recharger entièrement la batterie de son téléphone portable.

A l'heure où de plus en plus d'entreprises veulent démocratiser cette nouvelle technologie en l'intégrant sous plusieurs formats (robot conversationnel, appareils connectés, recherches en ligne), Sasha Luccioni prône la "sobriété énergétique".

L'idée ici n'est pas de s'opposer à l'IA, souligne-t-elle, mais plutôt de choisir les bons outils et les utiliser judicieusement.
https://www.boursorama.com/actualite-ec ... af6f27bc0b

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 08 sept. 2024, 17:58

OpenAI consommerait déjà autant que 33 000 foyers.
Generative AI’s environmental costs are soaring — and mostly secret
20 February 2024

....................
one assessment suggests that ChatGPT, the chatbot created by OpenAI in San Francisco, California, is already consuming the energy of 33,000 homes. It’s estimated that a search driven by generative AI uses four to five times the energy of a conventional web search. Within years, large AI systems are likely to need as much energy as entire nations.
............................
https://www.nature.com/articles/d41586-024-00478-x

Donc environ 33 MW, c'est pas encore gigantesque, mais ca devrait vite monter.
Je n'ai pas encore vu de contrats PPA de OpenAI avec des producteurs d' ENR pour s'approvisionner en électricité verte en Californie.

Et puis les plans d' électricité de OpenAI avec de la fusion en 2029 avec Helion je n'y crois pas un instant. Ils refont le coup de Musk avec l'homme sur Mars.
https://www.datacenterdynamics.com/en/n ... on-report/

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 02 sept. 2024, 11:02

Google thinking of building ‘hyperscale’ data center in Vietnam, a source says

Reuters, HANOI Aug 30, 2024


Alphabet Inc’s Google is considering building a large data center in Vietnam, a person briefed on the plans said, in what would be the first such investment by a big US technology company in the Southeast Asian nation.

Google is weighing setting up a “hyperscale” data center close to Ho Chi Minh City, Vietnam’s southern economic hub, the source said, who declined to be named, because the information is not public.

It was not clear how quickly Google would reach a decision on an investment, but the source said internal talks are on and the data center could be ready in 2027.

A spokesperson for Google declined to comment about the data center plan.

Hyperscale centers are the largest in the industry, with power consumption usually similar to that of a big city.

A hyperscale data center with a power consumption capacity of 50 megawatts (MW) could cost between US$300 million and US$650 million, according to estimates based on data published by real-estate consultant Jones Lang LaSalle in a report this year on data centers in Vietnam.

Google’s move was motivated by the large number of its domestic and foreign cloud services clients in Vietnam and the country’s expanding digital economy, the source said, adding that the Southeast Asian nation was one of the fastest-growing markets for YouTube, Google’s popular online video sharing platform.

The top data center operators in Vietnam, based on computing space, are state-owned Becamex IDC Corp and Vietnam Posts and Telecommunications Group, an internal market report by an industrial park in Vietnam seen by Reuters showed.

Chinese e-commerce company Alibaba Group Holding Ltd (阿里巴巴) was considering building a data center in Vietnam, the Nikkei reported in May.

Alibaba did not reply to a request for comment.

Despite growing demand for digital services from Vietnam’s 100 million population, foreign investors in the sector have largely shunned the country, because of occasional power shortages, less attractive investment incentives and weak Internet infrastructure that relies on a handful of aging subsea cables, industry experts said.

.....................

Google is also offering 40,000 scholarships in Vietnam for basic artificial intelligence (AI) courses and US$350,000 each for 20 selected AI start-ups, Google Vietnam managing director Marc Woo (胡漢輝) said on LinkedIn last month.

The company already has a large network of suppliers in Vietnam that assemble its products, including Pixel smartphones.
https://www.taipeitimes.com/News/biz/ar ... 2003822977

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par kercoz » 30 août 2024, 15:57

supert a écrit :
05 juil. 2024, 13:01

Souvenir :
La première fois que j'entends parler d'internet, c'est quelque part vers le milieu des années 90. Les copains m'expliquent alors que c'est incroyablement déconcentré, que chacun a son petit quelque chose dans son ordi et qu'on va tous picorer les uns chez les autres. Je crois me souvenir qu'on m'a expliqué que c'était un truc genre anarchie avec aucune concentration abusive.

apres 2 mois de stop aux US+ Mexique ( mexique plutot train+ car+bateau/ californie mexicaine), avec une amie, ...un peu en avance pour le plane de NY, on nous a laissé au nord de la grosse pomme ds une drôle d'université curieusement nommée "COLGATE" ou on nous a prèté une chambre d'étudiant en RTT. Outre un centre de méditation multi religieux (ou séjournait parait il Ravi Shankar).., on nous présenté avec fièrté un système d'interconnexion de la bibliothèque qui était en relation avec un tas d'autres université du pays pour accéder à des livres, textes, articles etc ...ce système nous a été présenté comme fourni par l'armée américaine.

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 30 août 2024, 09:09

en cherchant ;
Google's Uruguay data center approved after reformulation
First proposal raised concerns about water use following Uruguay's droughts in 2023

July 28, 2024 By Niva Yadav

Google’s application for a data center project in Teros, Uruguay, has now been approved.

Uruguay’s Environment Ministry approved the plans, according to a report from BN Americas.

The tech giant first acquired 30 hectares in the Parque de las Ciencias free trade zone in Uruguay in May 2021, after first announcing plans in 2020.

In November last year, Google confirmed it would be going ahead with amended plans for the data center development.

The first set of development plans raised concerns about water use, especially after Uruguay experienced severe droughts in July 2023. The project was initially expected to use up to 7.6 million liters of potable water every day.

The company has since made the project smaller and switched to an air cooling system.

The facility will be installed in four stages, said the report.

Google has said the maximum energy consumption to operate the data center will be less than 560 GWh per year. The company already has a contract with electricity company UTE to secure 430 GWh per year.

Google is also working on its Firmina subsea cable that will connect Myrtle Beach in South Carolina to Las Toninas, Argentina; Praia Grande, Brazil; and Punta del Este, Uruguay.

Google already operates the Tannat cable in partnership with Antel Uruguay to connect the same locations, the Curie cable connecting California to Chile, and the Monet cable connecting the US to Brazil. Within Brazil, it also operates the Junior system, which connects Rio de Janeiro to Santos.

In South America, Google currently operates a Cloud Region in São Paulo, Brazil, and another in Santiago, Chile.
https://www.datacenterdynamics.com/en/n ... rmulation/

si je prends 560 GWh et que je divise par 8760 h dans l' année ca fait une puissance moyenne de 64 MW.

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 30 août 2024, 09:02

Google annonce la construction d'un centre de données en Uruguay

AFP •30/08/2024

Google a annoncé jeudi la construction d'un centre de données en Uruguay, le deuxième du géant américain en Amérique du Sud, représentant un investissement de 850 millions de dollars.

Il verra le jour dans le Parque de las Ciencias, à environ 30 km du centre-ville de Montevideo, et sera chargé des services numériques de Google tels que Search, YouTube, Maps et Workspace, selon un communiqué de l'entreprise.

"Nous sommes très heureux d'annoncer cette étape importante qui s'inscrit dans le cadre de trois engagements clés: notre engagement soutenu envers l'Amérique latine, notre objectif en matière de durabilité et notre forte conviction que l'Uruguay est un centre d'innovation dans la région", a déclaré Eduardo Lopez, président de Google Cloud Latin America, dans le communiqué.

Ce centre de données sera le deuxième du géant de la technologie en Amérique du Sud, après celui de Quilicura, au Chili, qui a ouvert ses portes en 2015.

Les négociations pour l'installation de ce siège en Uruguay avaient débuté en 2019, sous le gouvernement de l'ancien président Tabaré Vazquez et Google a annoncé sa construction jeudi, après avoir obtenu les permis environnementaux requis.

La quantité d'eau quotidienne nécessaire à un centre de données de Google a soulevé des questions en Uruguay de la part d'écologistes et d'universitaires, en particulier après la crise d'approvisionnement en eau potable causée par une sécheresse historique en 2023.

Google a déclaré jeudi que ce nouveau centre de données utiliserait une "technologie de refroidissement par air" qui est "respectueuse de l'environnement".

"La durabilité est au cœur de tout ce que nous faisons, et nos centres de données sont conçus et exploités selon ses principes. Il s'agit d'une valeur partagée avec la communauté uruguayenne, et nous nous engageons à développer nos activités en Uruguay et dans le monde entier de manière responsable", a affirmé M. Lopez.

Google précise qu'une fois opérationnel, le nouveau site uruguayen sera intégré au réseau mondial de l'entreprise, qui compte 28 centres de données dans le monde.
https://www.boursorama.com/actualite-ec ... 3c9738e25a

Dommage, la puissance consommée en MW n'est pas indiquée.

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 10 juil. 2024, 22:19

L'ONU met en garde contre les dommages de l'économie numérique sur l'environnement

AFP le 10 juill. 2024

L'essor de l'économie numérique a des répercussions de "plus en plus graves" sur l'environnement, entre la consommation d'eau et d'électricité des centres de données et l'épuisement des matières premières, avertit mercredi l'ONU.

Alors que le développement de l'intelligence artificielle donne un coup d'accélérateur à l'économie numérique, la Cnuced, l'agence de l'ONU pour le commerce et développement, a appelé à mettre en oeuvre "des politiques solides pour renforcer la durabilité de la croissance numérique", soulignant que les pays en développement supportent une part "disproportionnée" des dommages environnementaux.

"La numérisation continue d'avancer à la vitesse de l'éclair, transformant les vies et moyens de subsistances", a déclaré le secrétaire général de l'ONU Antonio Guterres, cité dans un rapport publié mercredi.

Mais un essor non régulé de l'économie numérique risque de laisser de côté une partie de la population et d'exacerber les défis environnementaux, a-t-il prévenu.

Il a notamment cité les risques d'épuisement des matières premières utilisées pour les technologies numériques, l'augmentation de la consommation d'eau et d'énergie, la qualité de l'air et les déchets liés à la numérisation, ces risques étant "accentués par les technologies émergentes telles que l'intelligence artificielle".

Pour l'heure, les données concernant l'impact de l'intelligence artificielle sur l'environnement restent éparses. Rebeca Grynspan, la secrétaire générale de la Cnuced, appelle les géants de la technologie à montrer l'exemple en produisant des données standardisées sur le sujet.

- Emissions poussées par l'IA -

De grandes entreprises comme Google et Microsoft se sont engagées à parvenir à la neutralité carbone d'ici la fin de la décennie.

Mais Google a récemment fait état d'une augmentation de 48% de ses émissions de gaz à effet de serre par rapport à 2020, attribuant cette hausse aux centres de données nécessaires au développement de l'intelligence artificielle.

Dans son rapport sur la durabilité, le géant informatique Microsoft a de son côté évoqué une hausse de 29% de ses émissions de gaz à effet de serre l'année dernière par rapport à 2020.

Selon un rapport de la banque d'affaires américaine publié le mois dernier, l'essor de l'IA générative va pousser les géants de la technologie à investir quelque 1.000 milliards de dollars durant les prochaines, notamment pour les centres de données, microprocesseurs et infrastructures.

Mais ils ont pour l'instant encore "peu à montrer" malgré ces investissements, a souligné la banque américaine, qui se demande si ces larges sommes seront payantes au niveau des bénéfices et retours sur investissement.

Shamika Sirimanne, responsable des questions de technologie et de logistique à la Cnuced, estime que la question de savoir à quoi va servir l'IA n'a pas encore trouvé de réponses.

"Mais avant qu'il soit trop tard, il faut engager cette discussion", a-t-elle insisté.

- Davantage que la Belgique pour le Bitcoin -

Dans son rapport, la Cnuced a multiplié les exemples de dégâts qu'engendrent l'économie numérique.

En 2020, le secteur des technologies de l'information et de la communication a généré entre 0,69 et 1,6 gigatonnes de dioxyde de carbone, soit environ 1,5% à 3,2% du total des émissions de gaz à effet de serre au niveau mondial.

Leur niveau est comparable à celui du transport aérien ou du fret maritime.

La fabrication d'un ordinateur de deux kilogrammes nécessite environ 800 kg de matières premières, illustre également le rapport.

Et la demande en minéraux nécessaires à la numérisation, tels que le graphite, le lithium et le cobalt, pourrait augmenter de 500 % d'ici à 2050.

En 2022, les centres de données ont consommé 460 térawattheures d'électricité, et leur consommation devrait encore doubler d'ici 2026.

En Irlande, leur consommation a plus que quadruplé entre 2015 et 2022, représentant 18% de l'électricité utilisée dans le pays. Ce chiffre pourrait grimper à 28% d'ici 2031, selon le rapport.

L'énergie nécessaire au minage du Bitcoin, la cryptomonnaie la plus connue, s'est quant à elle accrue de 34% entre 2015 et 2023 pour atteindre un montant estimé à 121 Twh, soit davantage que la consommation électrique annuelle de la Belgique ou de la Finlande, qui se situent en-dessous de 90 TWh, a déclaré Mme Grynspan durant une conférence de presse.

Cela n'est donc "pas marginal", a-t-elle affirmé. Si la numérisation constitue, selon elle, un moteur "bienvenu et nécessaire" à la croissance économique, son essor doit être "inclusif et durable", a-t-elle ajouté.
https://www.connaissancedesenergies.org ... ent-240710

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 10 juil. 2024, 08:54

Derrière l’IA, la déferlante des « data centers »

le 14 juin 2024 lemonde

Pour nourrir les immenses besoins de ChatGPT et autres outils d’intelligence artificielle, le secteur de la tech multiplie les centres de données. Ces usines du numérique sont de plus en plus nombreuses, de plus en plus puissantes et de plus en plus voraces en énergie. Un boom mondial dans lequel la France compte prendre sa part.

« Le besoin de calcul informatique pour l’IA a été multiplié par un million en six ans et il décuple chaque année », a asséné le patron de Google, Sundar Pichai, le 14 mai. En conséquence, Amazon, Microsoft, Google et Meta (Facebook, Instagram) vont, en 2024, investir 200 milliards de dollars (186 milliards d’euros) en nouvelles infrastructures, soit 45 % de plus qu’en 2023 et 180 % par rapport à 2019, a calculé le cabinet d’analyse de marché Bernstein Research. Alimentées par le prix des processeurs spécialisés − plusieurs dizaines de milliers de dollars pour une puce (« graphics processing unit », GPU) du leader Nvidia −, les dépenses en serveurs dédiés à l’IA vont, selon ces analystes, quintupler entre 2022 et 2025, passant de 25 à 125 milliards de dollars par an.

...............abonnés
https://www.lemonde.fr/economie/article ... _3234.html

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par energy_isere » 07 juil. 2024, 22:13

Pourquoi l'intelligence artificielle est-elle si énergivore ?

AFP le 06 juill. 2024

Les émissions carbone de Google ont grimpé de 48% en cinq ans à cause de l'explosion de l'intelligence artificielle (IA), a indiqué mardi le géant américain, soulignant l'un des problèmes majeurs du développement fulgurant de cette technologie: sa voracité énergétique.

Pourquoi l'IA consomme-t-elle de l'énergie?

Les modèles de langage sur lesquels sont basés les IA génératives exigent d'énormes capacités de calcul pour s'entraîner sur des milliards de données, ce qui nécessite des serveurs puissants.

Par la suite, chaque fois qu'un utilisateur envoie une requête à ChatGPT ou toute autre IA générative, cela fait fonctionner des serveurs situés dans un centre de données.

Ces serveurs consomment de l'électricité, chauffent et doivent être refroidis avec des systèmes qui nécessitent à leur tour de l'énergie.

Selon l'Agence internationale de l'énergie (AIE), les centres de données utilisent en général près de 40% de leur électricité pour alimenter les serveurs et 40% pour les refroidir.

Une requête à ChatGPT nécessite ainsi en moyenne 10 fois plus d'énergie qu'une simple requête sur le moteur de recherche Google, ont montré plusieurs études.

Or le boom de l'IA depuis 2022 a conduit les géants d'internet, comme Amazon, Google et Microsoft, à investir massivement dans la création de centres de données à travers le monde.

Google met notamment en avant, dans son rapport environnemental, la hausse de la consommation d'énergie dans ses centres de données ainsi que le bond des émissions liées à la construction de nouveaux "data centers" et la modernisation de ceux existants.

Combien l'IA consomme-t-elle d'énergie?

Avant l'engouement pour l'intelligence artificielle, les centres de données représentaient environ 1% de la consommation électrique mondiale, selon l'AIE.

Si on ajoute l'IA et le secteur des cryptomonnaies, les centres de données ont consommé près de 460 Twh d'électricité en 2022, soit 2% de la production mondiale totale, d'après l'institution.

Un chiffre qui pourrait doubler en 2026, pour atteindre 1.000 Twh, ce qui correspondrait à la consommation en électricité du Japon, met-elle en garde dans un rapport.

Alex de Vries, économiste à l'Université libre d'Amsterdam, a de son côté modélisé l'usage électrique nécessaire pour l'intelligence artificielle seule à partir des projections de vente de l'entreprise Nvidia, dont les processeurs sont indispensables pour entraîner les modèles d'IA.

Si les estimations de vente pour 2023 de Nvidia sont correctes et si tous les serveurs tournent au maximum de leur capacité, ils pourraient consommer entre 85,4 et 134 Twh par an, soit ce que consomme un pays comme l'Argentine, écrit-il dans un article.

"Les chiffres que j'ai mis dans mon papier étaient plutôt prudents au départ parce qu'ils ne prennent pas en compte des processus comme les besoins en refroidissement", a-t-il détaillé à l'AFP.

L'année dernière, les ventes de Nvidia ont dépassé leurs projections, donc les chiffres pourraient être encore plus élevés, a-t-il poursuivi.

Comment les centres de données gèrent-ils cette demande énergétique accrue?

L'IA va transformer le secteur des centres de données, reconnaît Fabrice Coquio, de l'entreprise Digital Realty, qui gère un énorme centre de données en périphérie de Paris, dont une partie sera dédiée à l'intelligence artificielle.

"Cela sera exactement comme le cloud (informatique dématérialisée, NLDR), peut-être un peu plus massif en terme de déploiement", a-t-il expliqué à l'AFP lors d'une visite des infrastructures en avril.

Si les serveurs à la puissance de calcul moyenne peuvent être placés dans des pièces avec des systèmes d'air conditionné, ceux beaucoup plus puissants nécessaires à l'IA ont tendance à chauffer davantage et exigent que de l'eau soit pompée directement dans les équipements pour les refroidir, a précisé M. Coquio.

"Il est certain que cela demande des serveurs, un équipement de stockage et de communication différents", a-t-il insisté.

Comment les géants du net réagissent-ils?

Au moment où les mastodontes de la tech cherchent à mettre toujours plus d'intelligence artificielle dans leurs produits, les experts craignent une explosion de la consommation d'électricité.

A l'instar de Google, Microsoft, numéro deux mondial du cloud, a vu ses émissions de CO2 bondir de 30% en 2023 par rapport à 2020.

Si Google, Amazon et Microsoft mettent en avant leur investissement dans les énergies renouvelables pour alimenter leurs centres de données, leurs objectifs de neutralité carbone semblent s'éloigner.

AWS (la branche cloud d'Amazon) s'est engagée à devenir une entreprise à zéro émission de carbone d'ici à 2040, tandis que Google prévoit de parvenir à des émissions nettes nulles dans l'ensemble de ses activités d'ici à 2030.

Microsoft s'est lui donné pour objectif, aussi d'ici 2030, un bilan carbone négatif. Une promesse faite avant l'explosion de l'IA, a avoué en mai le président de Microsoft Brad Smith, lors d'un entretien à Bloomberg.
https://www.connaissancedesenergies.org ... ore-240706

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par mahiahi » 06 juil. 2024, 16:46

energy_isere a écrit :
05 juil. 2024, 13:40
Google , ah oui ca j'utilise, mais sans payer directement
Quand c'est gratuit, c'est toi le produit.
Je ne l'utilise pas personnellement, mais professionnellement on n'y échappe pas

Re: serveurs informatiques 77 milliards de kilowattsheures/an

par supert » 06 juil. 2024, 14:13

C'est gentil de me donner votre part. Moi je parlais de la part des français en général et surtout de la stupidité de certains français qui brûlent idéologiquement ce qu'ils renforcent pratiquement.
Si je considère sans prendre trop de risque que ni energie, ni Gilles, ni moi-même ne votent volontiers à gauche tendance lfi, et que tous les trois nous n'utilisons pas ces 5 monstruosités multinationales (je crois que j'utilise indirectement google, mais le fonctionnement du net et moi...), alors la part des gauchistes anti-mutinationales augmente mécaniquement dans le trafic de ces saloperies.

Merci energy de nous citer cette excellente phrase de Coluche que j'adore (la phrase et Coluche). Mais dis-moi, quel rapport avec mon propos ?


Supert qui se ré-inscrit dés que Coluche se représente.

Haut