serveurs informatiques 77 milliards de kilowattsheures/an

Discussions traitant des diverses sources d'énergie ainsi que de leur efficacité.

Modérateurs : Rod, Modérateurs

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 15 mai 2015, 11:59

OVH double la capacité électrique de ses infrastructures

05 Mai 2015 / site web de OVH

Face à l’explosion du cloud computing, du Big Data, des objets connectés, et à la nécessité de proposer des serveurs de plus en plus puissants et performants, OVH multiplie par deux la capacité électrique de ses infrastructures à Roubaix. Un chantier d’envergure par deux aspects : la puissance électrique apportée et la nature des travaux entrepris, puisque les nouvelles lignes à haute tension passent sous le canal de Roubaix, via un forage dirigé. Un chantier indispensable également pour l’entreprise, dont l’énergie est la principale matière première.

Après avoir annoncé la construction de l’OVH Campus qui verra le jour dès cet été sur un terrain attenant à la Roubaix Valley, OVH s’est lancé dans un chantier d’une ampleur peu commune. Le leader du Digital as a Service, dont le site roubaisien affiche actuellement une capacité électrique de 17 MW, l’augmentera de 20 MW, soit l’équivalent de l’énergie nécessaire à une ville de 25 000 habitants. « Avec 20 MW supplémentaires, nous pouvons multiplier nos infrastructures par deux à Roubaix », explique Lionel Deny, responsable d’exploitation des datacentres. « Nous serons en mesure d’accompagner notre croissance ainsi que celle de nos clients actuels et futurs. » De quoi envisager l’avenir sereinement.

Pour ce nouveau raccordement, des fourreaux de câbles électriques partent d’un poste source ERDF situé à Wattrelos, et rejoignent la Roubaix Valley plus d’1,5 km plus loin, où un poste de livraison sera installé. Sur la majeure partie du trajet, les deux câbles d’une tension de 20 000 volts passent par des tranchées creusées dans la chaussée. Le principal défi de ce chantier consiste à traverser le canal de Roubaix qui sépare le poste de Wattrelos de celui d’OVH, en limitant les risques et sans perturber l’environnement.

Une technique spectaculaire

C’est là qu’intervient le forage dirigé, mené par ERDF et la société FTCS Forage : un tunnel de 200 mètres d’une quarantaine de centimètres de diamètre est creusé sous le canal, dans lequel passeront les fourreaux.
..............
..............
Ce chantier fait partie d’un vaste projet d’accroissement de la puissance électrique des infrastructures d’OVH, puisque les datacentres de Gravelines et Strasbourg verront eux aussi leur capacité augmenter respectivement de 50 MW et 20 MW d’ici fin 2016.
http://www.ovh.com/fr/news/articles/a17 ... structures
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 20 mai 2015, 20:38

Quelle est l’empreinte environnementale du web ?

Par Frédéric Bordage - 12/05/2015 greenit.fr

Depuis un peu plus d’un an, chaque journaliste ou institution que je rencontre me pose les deux même questions : quels sont les impacts environnementaux du web ? Et comment les réduire ?

La réponse tarte à la crème, archi médiatisée, consiste à accuser les vilains centres de données qui seraient, selon certaines ONG, la source de tous les maux. En réalité, la situation est plus complexe et les solutions diverses. Car chaque tiers – utilisateur, réseau, data center – a des impacts différents, et pas aux mêmes étapes du cycle de vie.

Pour apporter une réponse synthétique et précise, je viens de passer quelques semaines à faire des calculs approfondis. Voici les résultats préliminaires que je soumets à votre critique constructive.

................
en entier : http://www.greenit.fr/article/materiel/ ... u-web-5496
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 03 juin 2015, 09:51

Stimergy déploie une première chaudière numérique à Lyon

Par Frédéric Bordage - 09/01/2015 greenit.fr

Fin 2014, l’Université Jean Moulin Lyon 3 a marqué une nouvelle étape dans son engagement en faveur des technologies innovantes au service du grand public en déployant, dans ses locaux, une chaudière numérique. Installée en septembre dernier, la chaudière est d’ores et déjà entrée en production.

« Cette solution d’efficience énergétique s’intègre dans la dynamique du Plan Vert que l’Université Jean Moulin Lyon 3 met en place. Il s’agit là d’un des leviers que nous allons utiliser pour réduire l’empreinte carbone de l’Université. » explique Jacques Comby, Président de l’Université Jean Moulin Lyon 3.

Un partenariat historique avec l’universitéMise au point par la start-up iséroise Stimergy, cette chaudière numérique se fonde sur le recyclage de la chaleur dégagée par des serveurs informatiques pour chauffer l’eau sanitaire. Cette approche est basée sur un bénéfice mutuel. L’eau froide arrivant dans le bâtiment extraie les calories au contact des serveurs. Elles est alors préchauffée et pourra être utilisée par les habitants du bâtiment. Cette approche allège la facture énergétique de l’exploitant des serveurs (qui n’a plus à les refroidir) et du bâtiment (qui dépense moins d’énergie pour la réchauffer).
......................

Image
http://www.greenit.fr/article/energie/s ... -lyon-5431

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 28 juin 2015, 14:16

Google : une centrale au charbon convertie en centre de calcul 100% alimenté par des énergies renouvelables

Emilie Dubois 28 juin 2015

Le 14e centre de calcul de Google sera construit à Widows Creek, sur le site d’une centrale à charbon. Les installations seront 100% alimentée par des énergies renouvelables.

C’est mercredi dernier que Google a annoncé avoir conclu un accord avec la Tennessee Valley Authority, la compagnie d’électricité du comté de Jackson (États-Unis), pour réhabiliter la centrale au charbon de Widows Creek en centre de calcul. Il s’agira du 14e centre pour le géant de l’internet de Mountain View.

Google annonce également que ce centre de calcul sera entièrement alimenté par des énergies renouvelables. « Il est symboliquement très important de transformer une ancienne centrale au charbon, une relique des anciens systèmes d’énergie, pour le convertir en un centre de données entièrement alimenté par des énergies renouvelables », a déclaré David Pomerantz, militant pour le climat et l’énergie au sein de l’organisation Greenpeace.

Au sujet de la reconversion de cette usine au charbon, Michael Terrell, responsable de la stratégie énergétique pour l’infrastructure Google, explique les avantages de ce projet. « C’est une énorme occasion de reprendre ces infrastructures, les lignes de transmissions et les prises d’eau, pour les utiliser pour alimenter un centre de données qui sera alimenté par des énergies renouvelables ».

En utilisant 1,5% de l’énergie éolienne produite aux États-Unis, Google affirme être le plus grand consommateur d’énergies renouvelables du pays. Par rapport à Apple, l’empreinte carbone de Google est malgré cela encore plus élevée. En effet, selon Greenpeace, 100% des centres de calculs d’Apple sont alimentés par énergies propres alors que seulement 46% des centres de données de Google sont alimentés par des énergies renouvelables.

En fait, sans préciser de date, l’ambition de Google est aussi d’avoir 100% de ses centres de calcul alimenté par des énergies propres.

La centrale au charbon de Widows Creek produit de l’électricité depuis 1952. Elle sera arrêtée avant la fin de l’année en raison de la réglementation environnementale.
http://www.linformatique.org/google-une ... uvelables/

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 05 juil. 2015, 14:08

je tombe sur un autre article concernant la news ci dessus.

ce 14 iéme Data Center de Google va coûter la bagatelle de 600 millions de $ ! :shock:
......The $600 million project announced Wednesday marks Google’s first commitment in eight years to build a U.S. data center. It will be the Internet company’s 14th data center in the world, including six others in the U.S.

When it’s completed, the Alabama data center is expected to create about 100 new jobs, Gov. Robert Bentley said Wednesday.
http://www.evwind.es/2015/06/25/google- ... site/52943

la fin de l' article mentionne que Google traite 100 milliards de demandes chaque mois (.....it fields more than 100 billion queries each month.)
Perso j' en fait peut être une moyenne de 10 par jour soit 300/mois.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 06 juil. 2015, 16:28

Selon le cabinet d' analyse YOLE, il y a eu en 2014 143 milliards de $ d' investissement en nouveaux datacenters !
Et les datacenters consomemraient 1.62 % de l' energie dans le monde.
Last year, around $143B was invested worldwide
for new data center projects
. Large internet
companies like Amazon, Facebook, and Google
are leading the investment in next-generation
“green” data centers. There is a trend towards
building larger data centers, consolidating
and densifying server concentration for the
sites which require more efficient buildings.

..............

Data centers are huge electricity users,
representing around 1.62% of the world’s
consumed energy in 2014
. Yole Développement
analyses several possible scenarios for the
evolution of data centers’ energy consumption.
In the actual scenario, with an average Power
Usage Efficiency (PUE) of 1.8, worldwide data
center energy consumption will reach 507.9 TWh
by 2020. In our hypothetical scenarios, there’s
a possibility for achieving a 12.4% decrease
of this number by implementing some new
technologies. Examples from Google, Microsoft,
and Facebook show that it is possible to build
highly-efficient data centers, with PUEs close
to 1.1.
.........................
source pdf : http://i-micronews.com/images/Flyers/Po ... er_web.pdf

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 19 juil. 2015, 13:45


http://www.economiematin.fr/news-intern ... tique-2023

Il ne reste que 7 ans à vivre au web, en 2023 il va mourir

Paolo Garoscio EcoQuick 05-05-2015[/url]


Avant de penser à 2023, il faut déjà survivre à 2019, et comme pour un zettaoctet t'a plus rien ........ va falloir éter inventif.
Le réseau internet est-il prêt à un triplement du trafic d'ici quatre ans ?

LOUIS NADAU 12 JUILLET 2015

Une étude du groupe Cisco annonce que le trafic web devrait être multiplié par trois d'ici 2019. Quelles évolutions de l'infrastructure suppose cette croissance ?

Porno, info et lolcats ont de beaux jours devant eux : selon une récente étude de l’entreprise Cisco, spécialiste des serveurs et réseaux internet, les besoins du trafic Web mondial vont tripler d’ici 2019, pour atteindre, sur cette seule année, un volume de 2 zettaoctets, soit 2 000 milliards de gigaoctets… L’équivalent du trafic total des deux décennies précédentes ! Le nombre de personnes connectées, lui, passera de 2,8 milliards en 2014 à 3,9 milliards en 2019. Chaque internaute devrait alors disposer, en moyenne, de 3,4 objets connectés. Avec la mise en données du monde, la numérisation tendancielle de toute chose, 24 milliards d’objets seront liés à la Toile. Les infrastructures du réseau sont-elles suffisamment solides pour supporter cette masse exponentielle de données ?

................
http://www.liberation.fr/sciences/2015/ ... ns_1345867

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 05 oct. 2015, 13:45

zone-numerique à l' air de tomber des nues alors que ce chiffre de 2% était déjà connu l' an dernier.
Selon une étude, Internet polluerait autant que les avions !

5 octobre 2015

Selon le rapport publié par la Global e-Sustainability Initiative (GeSI), les géants d’Internet produiraient 2% des émissions de CO2 mondiales, soit autant que le trafic aérien.

Selon les résultats d’un étude publiée par la Global e-Sustainability Initiative (GeSI), le Web polluerait autant que le trafic aérien, à raison de 2 % des émissions de CO2 mondiales. Un résultat qui inquiète les ONG. En ajoutant les vidéos regardées sur la Toile, les partage de photos sur les réseaux sociaux et l’électricité consommée par les serveurs et data centers, Internet serait le 6ème pays le plus polluant du globe.

Les ONG ont souhaité publier ce rapport avant le déroulement de la COP 21 qui se déroulera prochainement à Paris. Greenpeace indique qu’Internet est devenu un pays virtuel qui produit des déchets polluants au même titre que les autres pays. Réaliser des recherches sur Google, tchater, envoyer des emails ou regarder des vidéos sur YouTube a un impact sur l’environnement et Gary Cook, analyse des technologies de l’information au sein de Greenpeace ne se veut pas rassurant pour les années à venir.
http://www.zone-numerique.com/selon-une ... vions.html

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 12 nov. 2015, 13:54

en rapport avec deux post au dessus :

Internet en panne mondiale d'ici 2020, faute d'énergie !

Novembre 12, 2015

Internet en panne mondiale d'ici 2020, faute d'énergie ! Le livre CHIPS 2020 Vol 2: New Vistas in Nanoelectronics examine l'état de l'art dans la nanoélectronique mais sa découverte la plus importante est à l'échelle mondiale: à moins de changements importants, la prolifération de la nanoélectronique va engendrer des pannes d''Internet d'ici 2020 en raison d'un manque de puissance électrique.

En bref, l'engouement de la population mondiale à mettre toute sa vie et toutes ses données en ligne conduit à une explosion des données qui consomme 40 % de puissance supplémentaire chaque année et la demande en puissance électrique de l'Internet pourrait bientôt dépasser les ressources électriques disponibles dans le monde.

Image

Ceci conduit à craindre d'importantes coupures d'Internet dès 2020. Ces pannes devraient initialement se manifester autour d'événements mondiaux tels que des catastrophes naturelles ou artificielles ou la couverture d'événements sportifs à travers le monde, conclut Bernd Hoefflinger l'éditeur de cette étude.

Image

Suivant: Il est temps de retourner les tables

Deux stratégies qui pourraient retarder ou éviter l'effondrement de l'Internet sont mentionnés dans le livre. La première consiste à introduire des redevances ou des taxes sur l'utilisation excessive d'Internet pour limiter l'utilisation de ce qui sera bientôt une ressource limitée. La seconde consiste à effectuer une série de changements de magnitude de 10x dans la manière dont la nanoélectronique est conçue, fabriquée et utilisée.

Ces changements nanoélectroniques se concentrent principalement sur la logique numérique et des architectures neuronales de réseaux optimisées pour une consommation d'énergie minimale. Le volume de données de l'Internet mobile double tous les 18 mois, un peu comme une version non-bénigne de La loi de Moore, et les données vidéo représente déjà 70 % du trafic mobile selon Hoefflinger, et c'est ce problème qu'il faut régler en priorité.

Les prévisions de performance d'Internet et sa demande en électricité. Source: CHIPS 2020 Vol. 2

Image

Alors que certaines discussions ont eu lieu sur un possible point de singularité de l'intelligence - le point où les machines atteindraient une intelligence supérieure à celle des êtres humains - Hoefflinger a souligné le point de singularité des ressources en énergie plus proche et potentiellement plus grave.
http://www.electronique-eci.com/fr/inte ... =35&page=0

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 12 nov. 2015, 18:10

Supercalculateur Tera 1000, le premier pas vers l’Exascale

Par Jean-François Preveraud , Industrie&Technologies le 12/11/2015

Atos vient de livrer à la Direction des applications militaires du CEA (CEA/DAM), la première tranche du nouveau supercalculateur Tera 1000. Celle-ci a une puissance théorique de calcul double par rapport à la génération précédente de calculateur Tera 100 (première machine conçue et réalisée en Europe à avoir dépassé le pétaflops en 2010), tout en divisant sa consommation énergétique par cinq.
..............
http://www.industrie-techno.com/superca ... cale.40884

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 29 nov. 2015, 13:05

J' avais loupé l' arrivé du super calculateur Chinois Tianhe-2 il y a déjà plus d' un an.

Image
http://rue89.nouvelobs.com/2015/08/11/s ... nce-260697
Le supercalculateur chinois Tianhe-2 est une nouvelle fois couronné comme le plus puissant au monde.

17 Nov 2015

Développé par l'Université chinoise de technologie de défense, le supercalculateur Tianhe-2 truste la première place du Top500. Pour la sixième fois consécutive, il est sacré dans ce classement biannuel grâce à sa puissance de calcul de 33,86 pétaflops qui correspond à 33,86 millions de milliards d'opérations à virgule flottante par seconde.

Image

Le dauphin du Tianhe-2 est le Titan. Ce système Cray XK7 est installé dans le laboratoire national du département de l'énergie Oak Ridge aux États-Unis. Sur le benchmark Linpack, il a enregistré une puissance de calcul de 17,59 pétaflops.

Image
le tableau attribue une puissance de 17.8 MW au Tianhe-2 .

Il aurait couté 390 millions de $.
source : http://www.generation-nt.com/superordin ... 08871.html

Le record de puissance flopique précédent en Chine était le Tianhe-1A faisait 186.368 coeurs pour 2.56 pétaflops et 4 MW.
Celui ci a eu un peu chaud lors de l' enorme explosion de TianJin en Aout 2015 car situé à 750 m de l' explosion.
D'après l'agence Chine Nouvelle, l'ordinateur n'aurait subi aucun dommage. "Bien protégé dans une pièce aux murs renforcés, il fonctionnait parfaitement quelques minutes après l'explosion" aurait assuré Liu Guangming, le directeur du centre à l'agence. Le supercalculateur aurait toutefois été éteint manuellement "pour des raisons de sécurité". Les vitres du bâtiment abritant la machine ont en effet été soufflées par l'explosion. De plus, des plafonds se seraient effondrés à l'intérieur de l'édifice affirme l'agence, citant un membre de l'équipe travaillant sur l'ordinateur. "Sa base de données est intacte" précise Liu Guangming.
http://www.sciencesetavenir.fr/high-tec ... ateur.html

Le suivant en préparation devrait consommer encore plus. Oups.

On peut aussi rappeler que le datacenter de la NSA dans l' UTAH fait ..... 65 MW.
viewtopic.php?p=349066#p349066


pour la puissance des calculateurs :
un chiffre 1 suivie de 15 zéros. : petaflop.
un chiffre 1 suivie de 18 zéros. : exaflop.

https://fr.wikipedia.org/wiki/FLOPS

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 23 janv. 2016, 20:42

Stimergy lève 1,25 million d’euros pour réinventer l’eau chaude avec des data centers

23 janv 2016 Usine Nouvelle

La start-up propose d’utiliser la chaleur dégagée par les serveurs informatiques pour chauffer l’eau dans les immeubles d’usage collectif. En ouvrant son capital à deux fonds d’investissement, elle se dote des fonds propres nécessaire pour booster son équipe commerciale.
....................
http://www.usine-digitale.fr/article/st ... rs.N375194

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 02 févr. 2016, 12:19

Microsoft travaille sur de nouveaux data centers destinés à être plongés dans les profondeurs.

02 fev 2016 01net

Souvent érigés au beau milieu d'un no man's land, les data centers pourraient bientôt plonger dans les océans. Le New York Times rapporte que Microsoft vient de conclure avec succès la première phase d'une expérimentation allant dans ce sens. Durant plus de trois mois, une capsule contenant un ensemble de serveurs a été immergée à une dizaine de mètres de fond, près des côtes californiennes.

Mis en place en 2014, le Project Natick a pour but de placer sous les eaux les millions de machines qui alimentent le cloud. Pour Microsoft, l'enjeu est triple.


Pour fonctionner correctement, les d'ordinateurs regroupés dans les infrastructures actuelles ont besoin d'être refroidis. Pour cela, les géants du stockage de données dépensent des millions de dollars en climatisation. Plonger ces infrastructures permettrait d'éviter la chauffe, et ce à moindre coût. Si l'idée d'un refroidissement à eau pour un data center n'est pas nouvelle, enfouir totalement ce dernier sous la surface est techniquement bien plus ambitieux.

Par ailleurs, les centres de données sont fréquemment installés dans des zones très isolées et donc éloignées des populations. Pour l'internaute, cela peut se traduire par des temps de latence parfois importants. Sur son site, Microsoft précise que 50% des populations vivent près des océans. Placer les serveurs près des côtes permettrait donc de raccourcir le chemin à parcourir par les données et donc d'améliorer la qualité du service.

Enfin, Microsoft souhaite un jour utiliser la force des marées pour produire l'énergie nécessaire au fonctionnement des machines.
http://www.01net.com/actualites/microso ... 47974.html

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 19 févr. 2016, 13:15

suite du post au dessus.
Microsoft teste l'immersion des data-center dans l'océan

En 2015, un conteneur blanc au logo de Microsoft et pesant 17 tonnes est resté sous l'eau pendant 3 mois - d'août à septembre 2015 - à presque 1 kilomètre des côtes californiennes
..........
suite avec photos : http://www.enerzine.com/603/19071+micro ... cean+.html

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 89516
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: serveurs informatiques 45 milliards de kilowattsheures/a

Message par energy_isere » 13 avr. 2016, 16:26

Atos/Bull lance Sequana son supercalculateur du futur

Par Thierry Lucas Usine Nouvelle le 13 avril 2016

En présence d’Emmanuel Macron, Bull a présenté sa nouvelle génération de supercalculateurs Sequana qui atteindra, en 2020, mille fois la puissance des machines actuelles. Un saut technologique, mais aussi, selon le ministre de l’économie, une infrastructure essentielle pour l’économie numérique.

Deux ministres de l’économie pour lancer un supercalculateur : un ancien, Thierry Breton (2005-2007), aujourd’hui PDG d’Atos qui a racheté Bull en 2014, et l’actuel, Emmanuel Macron, venu souligner les enjeux de la technologie de pointe développée par le constructeur informatique français.

Les deux hommes se sont exprimés aux côtés d’une rutilante armoire remplie de plusieurs tonnes d’électronique : le premier supercalculateur de la gamme Bull Sequana, dont la feuille de route est d’atteindre en 2020 une puissance de calcul 1000 fois supérieure à celle des supercalculateurs actuels.

Les plus puissants calculateurs réalisent aujourd’hui de l’ordre de un million de milliards d’opérations par seconde (1 petaflops). La machine prévue pour 2020 vise l’exaflops, soit 1 milliard de milliard d’opérations par seconde. Un saut technologique qui repose sur la mise en parallèle de milliers de processeurs Intel de nouvelle génération, mais aussi sur un système d’interconnexion développé par Bull spécifiquement pour atteindre l’exaflops.

Ce système d’accélération des communications dans l’ordinateur repose sur des circuits spécifiques, les processeurs étant exclusivement dédiés au calcul. Pour faire fonctionner le tout dans des conditions raisonnables, les équipes de Bull ont travaillé à réduire la consommation d’énergie, tout en utilisant un système de refroidissement efficace. Le résultat : à puissance équivalente, le supercalculateur Sequana occupe dix fois moins de place, pèse deux fois moins lourd, et consomme dix fois moins d’énergie que la machine Curie (2,2 petaflops) hébergée actuellement par le CEA, et utilisée pour la recherche en Europe.

Le CEA comme premier client

Le CEA, qui a collaboré au développement de Sequana, est le premier client d’Atos/Bull sur ces machines. C’est d’ailleurs Bull qui fournit la machine Tera 1000 qui évolue aussi vers l’exaflops, et qui est utilisée par la direction des applications militaires du CEA (pour la simulation de l’arme nucléaire, notamment).

"Le supercalculateur est un instrument de souveraineté", a insisté Emmanuel Macron dans son allocution. Et pas seulement pour des raisons de défense nationale. Si de nombreux secteurs industriels sont déjà consommateurs de calcul intensif (automobile, aéronautique, santé, énergie…), la montée en puissance du traitement de données massives (Big Data) va généraliser le besoin en temps de calcul.

"Quand tous les grands acteurs vont avoir besoin de traiter des masses de données, le supercalculateur devient une infrastructure essentielle de l’économie numérique", a affirmé le ministre de l’économie. Une infrastructure qui atteindra par paliers l’exaflops vers 2020. Mais qui ne s’arrêtera pas là.

"Atos/Bull travaille déjà sur une machine à 1000 exaflops", annonce Thierry Breton. Et ensuite ? Ensuite, la technologie sera au bout de ses possibilités, et il faudra passer dans l’ère de l’ordinateur quantique. Bull a une équipe sur le sujet, l’une des rares équipes industrielles à travers le monde.
http://www.usinenouvelle.com/editorial/ ... ur.N387086

Répondre