https://www.clubic.com/actualite-590536 ... -l-ia.html"Aucun moyen que ça tienne" : le verdict sans appel du PDG d'IBM sur l'IA
Par Naïm Bada, le 08 décembre 2025 clubic
Arvind Krishna refroidit brutalement l’enthousiasme pour les méga centres de données dédiés à l’IA, en chiffrant une équation économique bien moins glamour qu’annoncée. Le message est sec, presque goguenard, mais il s’appuie sur des ordres de grandeur qui laissent peu de place au doute.
Le PDG d’IBM estime que la frénésie actuelle autour des capacités IA repose sur un socle financier fragile, et que la course au toujours plus risque d’étouffer ses propres promesses. Entre coûts d’équipement vertigineux, cycles de remplacement courts et facture énergétique en embuscade, la réalité dépasse déjà les slogans. Les premiers calculs publics laissent entrevoir des montants colossaux pour des rendements encore à démontrer, ce qui pousse Krishna à parler cash.
8 000 milliards de dollars : pourquoi l'équation économique de l'IA ne boucle pas
Le calcul donne le vertige et c'est bien l'objectif de la manœuvre. Un seul gigawatt de capacité de calcul coûte la bagatelle de 80 milliards de dollars à construire et équiper selon les chiffres avancés par le dirigeant. Comme l'industrie ambitionne de déployer une centaine de gigawatts pour soutenir l'IA générative, la facture totale grimperait mécaniquement à 8 000 milliards de dollars. Pour espérer rentrer dans ses frais avec une telle mise de départ, le secteur devrait générer des centaines de milliards de bénéfices annuels quasi immédiatement.
L'argent n'est même pas le seul problème puisque le temps joue contre les géants de la tech. La durée de vie utile des puces spécialisées ne dépasse guère cinq ans avant d'être techniquement dépassée par une nouvelle génération plus performante. Cette obsolescence éclair oblige les exploitants à tout racheter en permanence et transforme l'investissement initial en un gouffre financier sans fond. Krishna souligne avec malice que personne ne peut amortir une infrastructure aussi lourde quand il faut la remplacer avant même qu'elle ait rapporté son premier dollar de profit réel.
L'autre facette du problème réside dans la consommation vorace de ces cathédrales numériques. Les projections actuelles indiquent que la demande en électricité des centres de calcul pourrait bientôt rivaliser avec celle de nations industrialisées entières. Cette gourmandise énergétique impose des contraintes physiques que même des chèques en blanc ne pourront pas effacer. Le dirigeant d'IBM remet en cause la pertinence de cette course à la puissance brute alors que les gains d'intelligence réelle des modèles commencent à plafonner.
La stratégie de la fuite en avant semble donc compromise. Les entreprises qui parient sur une arrivée imminente d'une superintelligence pour justifier ces dépenses risquent de se heurter à un mur de réalité. Krishna suggère que l'avenir appartient aux architectures plus sobres et non à ceux qui empilent les processeurs graphiques jusqu'au ciel. Le message est passé et il est clair que la seule loi de Moore ne suffira plus à payer les factures d'électricité.
Source : Tech Radar
ChatGPT et autres LLM
Modérateurs : Rod, Modérateurs
- energy_isere
- Modérateur

- Messages : 102136
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
- energy_isere
- Modérateur

- Messages : 102136
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usinenouvelle.com/technos-e ... 2LOJY.htmlIA : parti de Meta, Yann LeCun prend ses distances avec la «Silicon Valley hypnotisée par les modèles génératifs»
Clap de fin pour Yann LeCun chez Meta. Après douze années passées dans l’entreprise de Marc Zuckerberg, le chercheur en intelligence artificielle monte sa propre start-up. L’occasion pour lui de travailler sur les ‘world models’, des modèles comprenant le monde physique, avec de la mémoire et des capacités de raisonnement.
Léna Corot le 8 décembre 2025
- energy_isere
- Modérateur

- Messages : 102136
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.boursorama.com/actualite-ec ... b46e3d4238OpenAI lance un nouveau modèle pour défendre son trône face à Google
AFP •11/12/2025
OpenAI a lancé jeudi son nouveau modèle d'intelligence artificielle (IA), GPT-5.2, dans une tentative de réaffirmer sa suprématie quelques jours après le déclenchement d'une "alerte rouge" en interne face à la concurrence grandissante du Gemini de Google et d'autres modèles.
Ce lancement intervient alors que le patron d'OpenAI, Sam Altman, avait demandé, dans un message d'"alerte rouge" à ses équipes début décembre, de recentrer en urgence les ressources sur ChatGPT, le produit phare de l'entreprise de San Francisco.
La directrice des applications d'OpenAI, Fidji Simo, a confirmé dans un point presse jeudi que cette "alerte rouge" avait permis "une augmentation des ressources allouées à ChatGPT" et été "utile" pour finaliser GPT-5.2.
Mais elle a contesté l'idée que la sortie de GPT-5.2 avait été avancée en raison de ce climat d'urgence, selon le média Wired.
OpenAI présente cette nouvelle itération, qui se décline en plusieurs modèles (instantané, raisonnement, professionnel), comme sa version la plus performante à ce jour. L'entreprise revendique des progrès notables en matière de raisonnement, de création de présentation, de perception des images, de gestion d'une série de tâche et de code informatique.
OpenAI assure que la version "Thinking" commet 38% d'erreurs factuelles (ou "hallucinations") en moins que la précédente.
Ces améliorations visent à endiguer les avancées de la concurrence, comme le modèle Claude d'Anthropic, moins connu du grand public mais réputé parmi les professionnels, et la percée de Google.
- Vidéo payantes -
Le géant de la recherche en ligne a lancé en novembre son modèle Gemini 3 et revendiqué plus de 650 millions d'utilisateurs mensuels pour son assistant. De son côté, OpenAI affirme que 800 millions d'internautes utilisent ChatGPT chaque semaine.
A la différence de Google, qui dégage des milliards de dollars de trésorerie chaque trimestre grâce à son activité ancienne, essentiellement publicitaire, OpenAI perd lui de l'argent chaque mois et ne prévoit pas d'être rentable avant 2029.
Son patron Sam Altman s'est toutefois voulu rassurant jeudi sur la chaîne américaine CNBC. "Nous sommes confiants dans notre capacité à continuer de stimuler la croissance des revenus pour répondre à cette montée en puissance du calcul", a-t-il déclaré.
OpenAI s'est en effet engagé à acquérir, sur huit ans, pour 1.400 milliards de dollars de capacités informatiques supplémentaires, autrement dit pour acheter des millions de puces, construire les centres pour les faire fonctionner et assurer l'électrification et le refroidissement de ces structures.
Ces montants colossaux suscitent des interrogations croissantes, vu l'écart avec les revenus actuels d'OpenAI. L'entreprise devrait atteindre fin 2025 un chiffre d'affaires annualisé d'au moins 20 milliards de dollars, avait déclaré début novembre Sam Altman, promettant "plusieurs centaines de milliards d'ici 2030".
"Sans cette montée en puissance du calcul, bien sûr, nous ne pouvons pas stimuler la croissance des revenus, mais nous voyons bien plus de raisons d'être optimistes que pessimistes", a-t-il assuré jeudi.
Le dirigeant a également noté qu'OpenAI facturait désormais les utilisateurs pour la génération de vidéos via son outil Sora. "Les utilisateurs n'ont manifesté aucune réticence à payer pour générer des vidéos qu'ils aiment", a assuré Sam Altman.
Sam Altman avait par ailleurs annoncé en octobre un assouplissement à partir de décembre des restrictions de ChatGPT pour permettre les conversations érotiques pour les adultes.
Fidji Simo a indiqué à la presse qu'elle s'attendait à voir ce "mode adulte" finalement disponible au premier trimestre 2026, l'entreprise souhaitant mieux prédire l'âge des utilisateurs avant d'introduire cette fonctionnalité.