https://www.clubic.com/actualite-590536 ... -l-ia.html"Aucun moyen que ça tienne" : le verdict sans appel du PDG d'IBM sur l'IA
Par Naïm Bada, le 08 décembre 2025 clubic
Arvind Krishna refroidit brutalement l’enthousiasme pour les méga centres de données dédiés à l’IA, en chiffrant une équation économique bien moins glamour qu’annoncée. Le message est sec, presque goguenard, mais il s’appuie sur des ordres de grandeur qui laissent peu de place au doute.
Le PDG d’IBM estime que la frénésie actuelle autour des capacités IA repose sur un socle financier fragile, et que la course au toujours plus risque d’étouffer ses propres promesses. Entre coûts d’équipement vertigineux, cycles de remplacement courts et facture énergétique en embuscade, la réalité dépasse déjà les slogans. Les premiers calculs publics laissent entrevoir des montants colossaux pour des rendements encore à démontrer, ce qui pousse Krishna à parler cash.
8 000 milliards de dollars : pourquoi l'équation économique de l'IA ne boucle pas
Le calcul donne le vertige et c'est bien l'objectif de la manœuvre. Un seul gigawatt de capacité de calcul coûte la bagatelle de 80 milliards de dollars à construire et équiper selon les chiffres avancés par le dirigeant. Comme l'industrie ambitionne de déployer une centaine de gigawatts pour soutenir l'IA générative, la facture totale grimperait mécaniquement à 8 000 milliards de dollars. Pour espérer rentrer dans ses frais avec une telle mise de départ, le secteur devrait générer des centaines de milliards de bénéfices annuels quasi immédiatement.
L'argent n'est même pas le seul problème puisque le temps joue contre les géants de la tech. La durée de vie utile des puces spécialisées ne dépasse guère cinq ans avant d'être techniquement dépassée par une nouvelle génération plus performante. Cette obsolescence éclair oblige les exploitants à tout racheter en permanence et transforme l'investissement initial en un gouffre financier sans fond. Krishna souligne avec malice que personne ne peut amortir une infrastructure aussi lourde quand il faut la remplacer avant même qu'elle ait rapporté son premier dollar de profit réel.
L'autre facette du problème réside dans la consommation vorace de ces cathédrales numériques. Les projections actuelles indiquent que la demande en électricité des centres de calcul pourrait bientôt rivaliser avec celle de nations industrialisées entières. Cette gourmandise énergétique impose des contraintes physiques que même des chèques en blanc ne pourront pas effacer. Le dirigeant d'IBM remet en cause la pertinence de cette course à la puissance brute alors que les gains d'intelligence réelle des modèles commencent à plafonner.
La stratégie de la fuite en avant semble donc compromise. Les entreprises qui parient sur une arrivée imminente d'une superintelligence pour justifier ces dépenses risquent de se heurter à un mur de réalité. Krishna suggère que l'avenir appartient aux architectures plus sobres et non à ceux qui empilent les processeurs graphiques jusqu'au ciel. Le message est passé et il est clair que la seule loi de Moore ne suffira plus à payer les factures d'électricité.
Source : Tech Radar
ChatGPT et autres LLM
Modérateurs : Rod, Modérateurs
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usinenouvelle.com/technos-e ... 2LOJY.htmlIA : parti de Meta, Yann LeCun prend ses distances avec la «Silicon Valley hypnotisée par les modèles génératifs»
Clap de fin pour Yann LeCun chez Meta. Après douze années passées dans l’entreprise de Marc Zuckerberg, le chercheur en intelligence artificielle monte sa propre start-up. L’occasion pour lui de travailler sur les ‘world models’, des modèles comprenant le monde physique, avec de la mémoire et des capacités de raisonnement.
Léna Corot le 8 décembre 2025
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.boursorama.com/actualite-ec ... b46e3d4238OpenAI lance un nouveau modèle pour défendre son trône face à Google
AFP •11/12/2025
OpenAI a lancé jeudi son nouveau modèle d'intelligence artificielle (IA), GPT-5.2, dans une tentative de réaffirmer sa suprématie quelques jours après le déclenchement d'une "alerte rouge" en interne face à la concurrence grandissante du Gemini de Google et d'autres modèles.
Ce lancement intervient alors que le patron d'OpenAI, Sam Altman, avait demandé, dans un message d'"alerte rouge" à ses équipes début décembre, de recentrer en urgence les ressources sur ChatGPT, le produit phare de l'entreprise de San Francisco.
La directrice des applications d'OpenAI, Fidji Simo, a confirmé dans un point presse jeudi que cette "alerte rouge" avait permis "une augmentation des ressources allouées à ChatGPT" et été "utile" pour finaliser GPT-5.2.
Mais elle a contesté l'idée que la sortie de GPT-5.2 avait été avancée en raison de ce climat d'urgence, selon le média Wired.
OpenAI présente cette nouvelle itération, qui se décline en plusieurs modèles (instantané, raisonnement, professionnel), comme sa version la plus performante à ce jour. L'entreprise revendique des progrès notables en matière de raisonnement, de création de présentation, de perception des images, de gestion d'une série de tâche et de code informatique.
OpenAI assure que la version "Thinking" commet 38% d'erreurs factuelles (ou "hallucinations") en moins que la précédente.
Ces améliorations visent à endiguer les avancées de la concurrence, comme le modèle Claude d'Anthropic, moins connu du grand public mais réputé parmi les professionnels, et la percée de Google.
- Vidéo payantes -
Le géant de la recherche en ligne a lancé en novembre son modèle Gemini 3 et revendiqué plus de 650 millions d'utilisateurs mensuels pour son assistant. De son côté, OpenAI affirme que 800 millions d'internautes utilisent ChatGPT chaque semaine.
A la différence de Google, qui dégage des milliards de dollars de trésorerie chaque trimestre grâce à son activité ancienne, essentiellement publicitaire, OpenAI perd lui de l'argent chaque mois et ne prévoit pas d'être rentable avant 2029.
Son patron Sam Altman s'est toutefois voulu rassurant jeudi sur la chaîne américaine CNBC. "Nous sommes confiants dans notre capacité à continuer de stimuler la croissance des revenus pour répondre à cette montée en puissance du calcul", a-t-il déclaré.
OpenAI s'est en effet engagé à acquérir, sur huit ans, pour 1.400 milliards de dollars de capacités informatiques supplémentaires, autrement dit pour acheter des millions de puces, construire les centres pour les faire fonctionner et assurer l'électrification et le refroidissement de ces structures.
Ces montants colossaux suscitent des interrogations croissantes, vu l'écart avec les revenus actuels d'OpenAI. L'entreprise devrait atteindre fin 2025 un chiffre d'affaires annualisé d'au moins 20 milliards de dollars, avait déclaré début novembre Sam Altman, promettant "plusieurs centaines de milliards d'ici 2030".
"Sans cette montée en puissance du calcul, bien sûr, nous ne pouvons pas stimuler la croissance des revenus, mais nous voyons bien plus de raisons d'être optimistes que pessimistes", a-t-il assuré jeudi.
Le dirigeant a également noté qu'OpenAI facturait désormais les utilisateurs pour la génération de vidéos via son outil Sora. "Les utilisateurs n'ont manifesté aucune réticence à payer pour générer des vidéos qu'ils aiment", a assuré Sam Altman.
Sam Altman avait par ailleurs annoncé en octobre un assouplissement à partir de décembre des restrictions de ChatGPT pour permettre les conversations érotiques pour les adultes.
Fidji Simo a indiqué à la presse qu'elle s'attendait à voir ce "mode adulte" finalement disponible au premier trimestre 2026, l'entreprise souhaitant mieux prédire l'âge des utilisateurs avant d'introduire cette fonctionnalité.
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
lire https://www.numerama.com/tech/2149749-c ... arche.htmlC’est un fait, ChatGPT est en déclin : voici les concurrents IA qui grignotent ses parts de marché
La compétition fait rage
27 dec 2025
Le 25 décembre, SimilarWeb a publié sur X ses chiffres concernant les parts de marché du trafic web de l’IA générative en 2025. Un premier constat émane des résultats de la plateforme d’analyse de trafic web : ChatGPT perd du terrain, mais qui en profite réellement ?
.................
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usine-digitale.fr/intellige ... OJGWE.htmlIntelligence artificielle : Les investissements dans les centres de calcul ont atteint un montant record de 61 milliards de dollars en 2025
Célia Séramour Publié le 23 décembre 2025
L'un des sites établis par OpenAI et Oracle pour l'implantation de centres de calcul dans le Wisconsin.
La nouvelle ruée vers l’or de l’intelligence artificielle générative ne se joue pas seulement dans les modèles ou les algorithmes. Elle se joue désormais dans le béton, le cuivre, les transformateurs électriques et les mégawatts disponibles. Partout dans le monde, une course d’une ampleur inédite est engagée pour construire et financer les centres de calcul capables d’alimenter l’IA générative. Derrière les annonces technologiques, ce sont des investissements industriels colossaux qui redessinent la géographie du numérique mondial.
Des dizaines de milliards engagés pour ces centres de calcul
Depuis deux ans, les montants engagés dans les data centers explosent. En 2025, les transactions liées aux centres de données ont dépassé les attentes, atteignant un montant record de 61 milliards de dollars (environ 52 milliards d’euros), comme le rapporte le S&P Global Market Intelligence, stimulé par la demande des infrastructures d’IA malgré certaines inquiétudes des investisseurs sur les valorisations sectorielles.
Plus de 100 transactions de centres de données ont ainsi été recensées au cours des onze premiers mois de l’année, pour une valeur totale qui dépasse déjà celle de toutes les transactions réalisées en 2024, selon les données de S&P Global Market Intelligence. La majorité de ces transactions ont eu lieu aux États-Unis, suivis par la région Asie-Pacifique.
Au premier rang de cette effervescence, les géants technologiques multiplient les projets à plusieurs milliards de dollars (voire des dizaines), souvent en partenariat avec des fonds d’investissement, des énergéticiens ou des acteurs du nucléaire.
Amazon, Google, Meta, Microsoft en tête
Meta finance à hauteur de 27 milliards de dollars un campus géant de plusieurs gigawatts en Louisiane (Hyperion), Microsoft sécurise des capacités électriques équivalentes à celles d’un parc nucléaire (incluant un contrat portant sur 10,5 GW de nouvelles capacités renouvelables aux États-Unis et en Europe) tandis que Google investit directement dans des producteurs d’énergie pour verrouiller son approvisionnement (référence au rachat d’Intersect Power, une société spécialisée dans l’énergie des centres de données pour 4,75 milliards de dollars).
De son côté, Amazon accélère en Asie comme en Europe, sans pour autant négliger sa terre natale : le géant du cloud, qui construit depuis plusieurs années des infrastructures pour le gouvernement américain et ses agences, veut aller plus loin en leur donnant accès à des outils d’IA et prévoit, en conséquence, de bâtir des centres de calcul pour l’équivalent de 1,3 GW de capacité énergétique... Enfin, rappelons le projet Stargate, initié en janvier 2025, qui vise à sécuriser 10 gigawatts pour quelques 500 milliards engagés par plusieurs acteurs, notamment OpenAI, Oracle, ainsi que SoftBank. L’initiative avance progressivement avec des objectifs toujours ambitieux.
Une échelle complètement démesurée
Tous ces projets ont un point commun : leur échelle. Là où un centre de données qualifié de classique affiche généralement une puissance comprise entre 10 et 25 mégawatts, un centre de calcul taillé pour l’IA peut dépasser 100 mégawatts, une puissance équivalente à la consommation annuelle d’environ 100 000 foyers. L’inférence, c’est-à-dire la phase d’utilisation des modèles par les utilisateurs finaux, représenterait à elle seule entre 80 et 90% de la puissance de calcul mobilisée par l’IA, ce qui ancre la consommation énergétique dans la durée, bien au-delà des phases ponctuelles d’entraînement.
À ce niveau, chaque site devient un acteur à part entière du système électrique local. Un seul campus pouvant consommer autant d’électricité qu’une ville moyenne. Cette industrialisation du numérique marque une rupture : l’IA n’est plus seulement une affaire de logiciels, mais une industrie lourde. Et elle repose sur une contrainte centrale : l’énergie.
Une consommation qui pourrait atteindre 945 TWh en 2030
À l’échelle mondiale, les centres de données représentent aujourd’hui environ 1,5% de la consommation totale d’électricité, soit 415 térawattheures en 2024. Ce chiffre peut sembler modeste rapporté à la consommation globale, mais il masque des réalités locales beaucoup plus marquées. Aux États-Unis, les centres de données concentrent déjà 4,4% de la demande électrique nationale, contre 2,3% dans l’Union européenne, 1,5% au Japon et 1,1% en Chine.
Pour prendre le cas de la France, la consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait atteindre 12 à 20 TWh en 2030. Plus inquiétant encore, la consommation mondiale pourrait “au moins plus que doubler d’ici 2030″ pour atteindre environ 945 TWh, sous l’effet combiné de la numérisation de l’économie et de l’essor de l’IA, comme le souligne l’Autorité de la concurrence dans sa dernière étude publiée ce mois-ci et rendant compte de l’impact environnemental de l’IA générative (faisant ainsi suite à un premier avis rendu en juin 2024 sur le fonctionnement concurrentiel du secteur).
Une mainmise sur l’énergie
Dans ce contexte, l’accès à une énergie abondante, décarbonée et prévisible devient un avantage stratégique décisif. Les grands acteurs américains l’ont compris depuis longtemps. Ils signent des contrats d’achat d’électricité de long terme, investissent dans les renouvelables, s’intéressent de près au nucléaire – y compris aux petits réacteurs modulaires (SMR) ou à la fusion – et n’hésitent plus à intégrer l’énergie dans leur stratégie industrielle.
L’objectif est double : sécuriser l’approvisionnement et stabiliser les coûts, dans un environnement où l’électricité peut représenter entre 30 et 50% des charges d’exploitation d’un centre de données.
Un vent de panique souffle sur l’Amérique, un nouvel élan pour l’Europe ?
Le résultat de ce mouvement est sans appel : près de la moitié de la capacité américaine est regroupée dans seulement cinq grands pôles régionaux, ce qui accentue les tensions locales sur les réseaux électriques. L’Europe et la France apparaissent alors comme des terrains attractifs. La France, en particulier, dispose d’un atout rare : une électricité massivement décarbonée, un réseau robuste et des prix historiquement compétitifs pour les acteurs électro-intensifs.
Résultat, Paris est devenue la troisième place européenne pour les centres de données - comptant 683 MW de capacité installée fin 2024, derrière Francfort (environ 2 900 MW) et Londres (1 000 MW), pour environ 322 centres de données. De fait, la consommation électrique du secteur pourrait atteindre jusqu’à 28 TWh en 2035, soit près de 4% de la consommation nationale. Le gouvernement français multiplie d’ailleurs les annonces pour accélérer les implantations, simplifier les procédures et attirer les investissements.
Des tensions au niveau des ressources
Mais cette ruée n’est pas sans contrepartie. Derrière les mégadeals et les chiffres spectaculaires, les tensions s’accumulent sur les réseaux électriques, le foncier, l’eau et, plus largement, sur l’acceptabilité environnementale de ces infrastructures. En France, les centres de données ont déjà prélevé environ 0,6 million de mètres cubes d’eau en 2023, avec une croissance annuelle proche de 20%, sans compter les prélèvements indirects liés à la production d’électricité. Dans certaines régions, la question n’est plus de savoir si des centres de données peuvent être construits, mais s’ils peuvent être alimentés sans évincer d’autres usages industriels ou résidentiels.
C’est sur ce point précisément qu’intervient l’analyse de l’Autorité de la concurrence, publiée la semaine dernière. Plutôt que de se prononcer sur l’opportunité environnementale de l’IA, elle pose une question plus structurelle : que fait cette course aux infrastructures énergivores à la concurrence ? Son constat est clair : l’accès à l’énergie, au réseau et à l’information environnementale est en train de devenir un nouveau facteur de différenciation concurrentielle majeur.
Un marché qui se structure autour des ressources
En creux, l’étude dessine ainsi une perspective plus large : la structuration du marché de l’IA ne se jouera pas uniquement sur la qualité des modèles, mais sur la capacité à maîtriser les ressources physiques qui les rendent possibles. Électricité, eau, foncier, réseau : ces contraintes, longtemps périphériques dans le débat technologique, deviennent centrales.
Et à mesure que les investissements s’accélèrent et que les projets de “campus de centres de calcul” se multiplient, elles pourraient bien décider quels acteurs domineront durablement l’IA mondiale — et lesquels resteront en marge.
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
Afin d'étancher la soif de processeurs pour l'IA NVIDIA voudrait faire 2 millions de H200 pour le marché Chinois, au pris de 27 000 $ l'unité.
Ca fait un montant astronomique de 54 milliards de dollars !
lire : https://www.taipeitimes.com/News/biz/ar ... 2003849833
et en particulier :
Ca fait un montant astronomique de 54 milliards de dollars !
lire : https://www.taipeitimes.com/News/biz/ar ... 2003849833
et en particulier :
https://www.usine-digitale.fr/electroni ... DD4AA.htmlByteDance s’apprête à dépenser plus de 12 milliards d’euros en puces Nvidia en 2026
Le mastodonte chinois prévoit de dépenser des sommes astronomiques dans les puces de Nvidia taillées pour l’IA, dans un contexte de hausse de la demande. Un investissement qui reste soumis à la validation effective par la Chine de la vente des H200 auprès d’entreprises du pays.
Célia Séramour Publié le 2 janvier 2026
.................
- energy_isere
- Modérateur

- Messages : 102487
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usine-digitale.fr/big-tech/ ... MAVHU.htmlIA générative : 800 millions d’appareils Samsung bientôt équipés de Gemini
Le géant sud-coréen veut doubler le nombre d’appareils mobiles équipés du modèle d’intelligence artificielle Gemini de Google. Une stratégie lui permettant de se démarquer de son adversaire Apple.
Célia Séramour Publié le 5 janvier 2026
Alors que le Consumer Electronics Show ouvre ses portes ce 5 janvier à Las Vegas, Samsung lève le voile sur ses ambitions pour l’année 2026. Le géant sud-coréen prévoit ainsi de doubler le nombre de ses appareils mobiles - incluant smartphones et tablettes - intégrant des fonctionnalités “Galaxy AI”, rendues possibles grâce à l’intégration du modèle Gemini de Google.
Le groupe, qui avait déployé des fonctionnalités d’IA reposant sur Gemini sur environ 400 millions d’appareils mobiles, prévoit donc de porter ce chiffre à 800 millions en 2026, rapporte Reuters. Cette initiative, portée par T.M. Roh, récemment nommé au poste de co-CEO de Samsung Electronics, devrait offrir un coup d’accélérateur majeur à la firme de Mountain View et apporter davantage de visibilité à ses modèles d’IA.
La course à l’IA se poursuit
En plaçant l’IA de Google au cœur de son écosystème, Samsung marque une étape dans sa stratégie : d’une part, il s’allie à un géant technologique américain capable de lui apporter les ressources en intelligence artificielle dont il a besoin ; d’autre part, il marque une certaine distance avec OpenAI et ses modèles et montre à son plus proche concurrent, Apple, qu’il est capable de prendre de l’avance sur ce terrain.
Samsung ne compte par ailleurs pas s’arrêter en si bon chemin : le géant a annoncé que sa dernière gamme d’appareils électroménagers, qui inclut les dernières versions de son réfrigérateur Bespoke AI et de son micro-ondes encastrable, intègre également des fonctionnalités d’IA visuelle. Sous le capot ? Une optimisation signée Google, mêlant Gemini et Google Cloud.
