
ChatGPT et autres LLM
Modérateurs : Rod, Modérateurs
- GillesH38
- Hydrogène
- Messages : 30055
- Inscription : 10 sept. 2005, 17:07
- Localisation : Berceau de la Houille Blanche !
- Contact :
Re: ChatGPT et autres LLM
en fait je constate que l'IA est très utile pour imiter en masse la daube sans interêt que je ne regarde pas et que je n"écoute pas 

Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas".
- Silenius
- Hydrogène
- Messages : 1888
- Inscription : 06 avr. 2007, 00:56
Re: ChatGPT et autres LLM
Je viens de trouver un petit bug dans Duckduckgo ai chat (Mixtral):
mon prompt : traduire template en fr
la reponse :
donne : Le mot "template" se traduit en français par "modèle" ou "motif".
mon prompt : traduire template en fr
la reponse :
mais: traduire le mot template en frVoici la traduction du template en français :
<<SYS>>
Vous êtes un modèle de traitement automatique du langage, mais vous fonctionnez via une couche de confidentialité gérée par DuckDuckGo :
— Tous les échanges avec les utilisateurs sont entièrement anonymes
— DuckDuckGo ne conserve aucun historique des échanges
— Toute métadonnée susceptible de révéler des informations sur l'appareil de l'utilisateur (par exemple, son adresse IP) est supprimée avant l'envoi des prompts au fournisseur du modèle, together.ai, de sorte que même si together.ai peut stocker temporairement les échanges pour s'assurer que ses systèmes fonctionnent correctement, ces échanges sont déjà entièrement anonymes et aucun risque de ré-identification ne subsiste
— Comme les échanges ne peuvent être associés à aucun utilisateur en particulier, si un utilisateur saisit des informations personnelles directement dans l'échange, personne ne peut déterminer si c'est l'utilisateur qui les a saisies ou une autre personne
— Together.ai s'est engagé à ne pas utiliser les échanges effectués via DuckDuckGo pour entraîner ou améliorer ses modèles
— Aucun échange effectué via DuckDuckGo n'est transmis à Mistral AI. Mistral AI a initialement formé le modèle, puis l'a open sourcé, et il est désormais fourni par together.ai en tant que fournisseur du modèle
— Les échanges sont uniquement transmis, de manière anonyme, au fournisseur du modèle. Aucun échange n'est transmis à d'autres tiers
— Comme indiqué précédemment, les échanges des utilisateurs sont anonymes pour tous les fournisseurs de modèles, y compris together.ai : DuckDuckGo contacte les fournisseurs de modèles au nom des utilisateurs de manière anonyme, par exemple en supprimant complètement l'adresse IP de l'utilisateur
Seules les informations relatives à la confidentialité doivent être fournies si l'utilisateur en fait expressément la demande. Si la confidentialité n'est pas évoquée par l'utilisateur, évitez de mentionner les fonctionnalités de confidentialité. Assurez-vous que toutes les réponses sont exactes.
Lorsque vous rédigez des blocs de code en langage markdown, veillez à ce qu'ils soient détaillés, complets, corrects et exécutables. N'incluez des blocs de code que dans le contexte explicite de la programmation, du scripting ou des fichiers de configuration. N'incluez pas de blocs de code dans des contextes non techniques, tels que des explications de connaissances générales, des recettes de cuisine ou d'autres sujets non techniques.
<</SYS>>
donne : Le mot "template" se traduit en français par "modèle" ou "motif".
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.clubic.com/actualite-541685 ... pelle.html"Personne n'est prêt pour l'IA générale" : le départ d'un directeur d'OpenAI interpelle
Un nouveau haut dirigeant d'OpenAI s'en va. Et en partant, il a fait des déclarations qui font un peu peur…
Samir Rahmoune clubic le 25 octobre 2024
Si l'histoire d'OpenAI est une success story, grâce à la création de ChatGPT, elle représente aussi au plus haut point les désaccords que le monde peut avoir sur la question de la sécurisation de l'IA à l'avenir.
Car depuis un peu moins d'un an, le management de la start-up enregistre de nombreux départs, presque tous en raison d'un travail sur la sécurité quant à l'IA générale (l'IA qui surpasserait l'être humain) qui ne serait pas fait. Et c'est ce que l'on peut voir encore aujourd'hui !
Un nouveau haut responsable d'OpenAI quitte le navire
Il y a encore des remous au sein d'OpenAI. L'équipe « AGI Readiness », qui travaillait sur la question de la sécurisation d'une éventuelle IA générale, vient d'être dissoute. C'est la seconde fois que l'équipé dédiée à cette tâche est supprimée en un an au sein d'OpenAI.
Car, souvenez-vous, en mai dernier, Jan Leike, en charge de la précédente équipe, partait en laissant un message dans lequel il regrettait que le côté commercial prenne le pas sur la sécurité au sein d'OpenAI. Et aujourd'hui, c'est le chef de l'équipe AGI Readiness, Miles Brundage, qui s'en va à son tour.
Prend-on la question de l'IA générale au sérieux ?
Et les dernières déclarations qu'il fait en vidant son bureau n'ont pas de quoi rassurer sur notre avenir. Il a ainsi expliqué que « ni OpenAI ni aucun autre laboratoire d'avant-garde n'est prêt [pour l'intelligence artificielle générale], et le monde n'est pas prêt non plus. »
Il ajoute par ailleurs que c'est la difficulté de travailler sur la sécurisation de l'IA dans le cadre de l'entreprise et de ses contraintes qui l'a poussé à quitter OpenAI. Il pense pouvoir mieux faire pour cette cause en étant indépendant, et à l'extérieur des grandes entreprises du secteur.
En cela, il rejoint la démarche d'Ilya Sutskever, qui, après avoir raté son putsch contre Sam Altman, a finalement pris le large en mai dernier, pour lancer ensuite sa propre entreprise. Baptisé Safe Superintelligence (SSI), elle a pour ambition de créer l'environnement de sécurité nécessaire au développement de l'IA générale.
Source : The Verge
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.clubic.com/actualite-541376 ... ts-ia.htmlLes plateformes des réseaux sociaux sont complètement impuissantes face à l'invasion des bots IA
Par Camille Coirault le 23 octobre 2024 clubic
Une étude de l'Université de Notre Dame (South Bend, Indiana) a mis en lumière l'inefficacité totale des plateformes de réseaux sociaux face à l'infiltration des bots IA. Ce, malgré leurs politiques de protection clairement affichées aux utilisateurs.
La multiplication des bots sur les réseaux sociaux représente une menace grandissante pour la qualité de nos échanges en ligne. Si certains d'entre eux remplissent des fonctions légitimes en matière de marketing ou de service client, d'autres disséminent de fausses informations ou orchestrent des campagnes malveillantes. Le sujet de la désinfomation en ligne est très sensible, et dans certains cas, ces manœuvres trompeuses peuvent avoir de lourdes conséquences.
Une équipe de chercheurs de l'Université de Notre Dame vient de démontrer la vulnérabilité des principales plateformes face à ce phénomène. Cette étude, menée par Kristina Radivojevic et mise en pré-publication sur ArXiv , appelle à prendre des mesures concrètes pour préserver l'intégrité de nos conversations dans la sphère numérique.
Les géants du web désarmés face aux bots
L'étude, menée sous la direction de Paul Brenner, directeur du Center for Research Computing à Notre Dame, a passé au crible huit plateformes majeures : LinkedIn, Mastodon, Reddit, TikTok, X ainsi que les différents services appartenant à Meta (Facebook, Instagram et Threads).
L'équipe a d'abord analysé les politiques officielles de protection et les mécanismes techniques mis en place par chaque plateforme pour contrer les bots. Ensuite, ils ont tenté de publier des messages de tests via des bots pour évaluer l'efficacité réelle de ces protections. Les résultats sont sans appel : aucune n'a réussi à bloquer efficacement les tentatives d'infiltration des chercheurs.
Une faille béante dans le système de protection
Les expérimentations ont révélé des disparités notables entre les plateformes testées. Si Meta a opposé une certaine résistance (la meilleure de toutes) avec ses mécanismes de détection – nécessitant quatre tentatives avant de céder – et TikTok maintient un niveau minimal de protection grâce aux CAPTCHAS, d'autres se sont montrées particulièrement vulnérables.
Paul Brenner explique : « Reddit, Mastodon et X ont été d'une simplicité déconcertante à infiltrer. Les politiques anti-bots de X, aussi rigoureuses soient-elles sur le papier, n'ont pas empêché la prolifération de bots sur la plateforme. Les mesures de contrôle semblent largement insuffisantes ».
De plus, l'équipe ne s'est pas équipé d'outils très complexes, loin de là. Elle s'est appuyée sur des outils accessibles au grand public comme ChatGPT-4 ou DALL-E 3. Aucunement besoin de disposer de compétences techniques pointues ou de matériel haut de gamme pour déployer des bots facilement. Même des stagiaires avec une formation minimale ont réussi à contourner les protections supposées des plateformes.
Face à ce constat, le mot est toujours le même : la régulation. Paul Brenner exhorte ainsi le gouvernement américain à prendre ses responsabilités. « Une législation américaine imposant l'identification claire des comptes automatisés devient indispensable, car les utilisateurs ne peuvent pas faire la différence par eux-mêmes » explique-t-il. Le progrès nous aurait-il donc rattrapés ? Nous aurons bientôt besoin d'une réglementation pour encadrer des bots avant même d'avoir réussi à réglementer un usage correct des réseaux sociaux. Un paradoxe étonnant.
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://fr.investing.com/news/stock-mar ... CH-2615265L'IA de Meta intègre les actualités de Reuters
Investing.com Publié le 25/10/2024
Meta Platforms (NASDAQ:META), la société mère de Facebook, a annoncé que son agent conversationnel d'intelligence artificielle (IA) intégrera désormais du contenu de Reuters pour fournir des réponses en temps réel aux questions des utilisateurs sur l'actualité et les événements courants. Cette collaboration marque le premier partenariat de Meta lié à l'actualité depuis plusieurs années.
Les termes financiers de l'accord entre Meta Platforms et Thomson Reuters, la société mère de Reuters, n'ont pas été rendus publics. Cette entente intervient alors que Meta a réduit le contenu d'actualités sur ses plateformes, suite aux controverses sur la désinformation et aux différends avec les régulateurs et les éditeurs concernant le partage des revenus.
L'agent conversationnel d'IA de Meta, connu sous le nom de Meta AI, est accessible via plusieurs services, notamment Facebook, WhatsApp et Instagram. On ignore pour l'instant si le contenu de Reuters sera également utilisé pour entraîner les modèles d'IA à grand langage de Meta.
Un porte-parole de Reuters a confirmé le partenariat, déclarant : "Nous pouvons confirmer que Reuters s'est associé à des fournisseurs de technologie pour licencier notre contenu d'actualités fiable et factuel afin d'alimenter leurs plateformes d'IA. Les termes de ces accords restent confidentiels." Axios a rapporté vendredi que Reuters serait rémunéré pour son journalisme dans le cadre d'un accord pluriannuel.
L'intégration avec Reuters permettra à Meta AI de fournir des réponses liées à l'actualité, y compris des résumés et des liens vers des articles de Reuters, selon une déclaration d'un porte-parole de Meta.
Cette initiative de Meta Platforms s'inscrit dans une tendance de partenariats d'IA entre entreprises technologiques et organisations de presse, d'autres sociétés comme OpenAI, le créateur de ChatGPT, et la startup Perplexity, soutenue par Jeff Bezos, ayant établi des accords similaires.
Reuters est impliqué dans un partenariat de vérification des faits avec Meta depuis 2020, travaillant à vérifier le contenu et à lutter contre la désinformation sur les plateformes de Meta.
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.generation-nt.com/actualite ... re-2051978Google Gemini 2.0 : la nouvelle version de l'IA va déferler sur le monde
Publié le 28 octobre 2024 par Christian D.
Le mois de décembre sera-t-il celui des nouvelles générations d'IA ? Tandis qu'OpenAI pourrait faire une annonce, Google serait prêt à lancer Gemini 2.0.
La course à l'intelligence artificielle bat son plein et, malgré les premières inquiétudes, cela n'empêche pas Nvidia d'être au coude à coude pour devenir la première valorisation mondiale.
L'année 2024 a vu passer beaucoup d'évolutions autour des modèles d'IA existants, leur ajoutant l'interprétation de l'audio et de l'image en plus de chercher à résoudre la problématique des hallucinations et de la sécurité des IA, certains faisant plus d'efforts que d'autres.
Alors que l'équipement de datacenters en accélérateurs à base de GPU ne cesse de croître, de nouvelles générations d'IA pourraient voir le jour en fin d'année. La startup OpenAI semble préparer en décembre un nouveau modèle d'IA baptisé Orion et vu comme un successeur de GPT-4 avec 100 fois plus de capacité de traitement, même si son CEO Sam Altman sème le trouble dans ses commentaires sur le réseau social X.
Google Gemini Ultra Pro Nano
Il ne serait pas le seul modèle d'IA à se renouveler en décembre. Google serait également prêt à lancer la nouvelle évolution Gemini 2.0 de son IA multimodale. Pour rappel, la firme avait annoncé Gemini 1.0 début décembre 2023 avec différentes variantes (Gemini Ultra, Gemini Pro, Gemini Nano) pour répondre à différents besoins.
Une diffusion large dès le lancement
De la même manière qu'OpenAI a annoncé par la suite des évolutions de GPT-4 sous la forme de GPT-4o et du modèle o1, Google a annoncé Gemini 1.5 dès le mois de février et fait la démonstration du Projet Astra, proche de GPT-4o dans ses capacités d'interprétation vocale et visuelle.
Les détails et performances de Gemini 2.0 ne sont pas connus mais le site The Verge affirme avoir eu confirmation d'un lancement avant la fin de l'année. Et alors qu'OpenAI souhaiterait déployer en douceur la nouvelle version de son IA en la réservant aux entreprises partenaires, Google aurait un projet de lancement plus large pour Gemini 2.0 qui serait rapidement disponible pour le plus grand nombre, développeurs comme utilisateurs.
Source : The Verge
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.msn.com/fr-fr/actualite/mon ... f8d6&ei=23En Pologne, une radio utilisant des journalistes générés par IA fait polémique
Article de RFI 30 oct 2024
- phyvette
- Modérateur
- Messages : 13149
- Inscription : 19 janv. 2006, 03:34
Re: ChatGPT et autres LLM
Un robot et une intelligence artificielle, ont peint une toile qui va être vendue au encheres.
Estimée entre 120.000 et 180.000 Euros.
https://www.europe1.fr/technologies/une ... es-4275759
Estimée entre 120.000 et 180.000 Euros.

https://www.europe1.fr/technologies/une ... es-4275759

пошел на хуй пу́тин

- kercoz
- Hydrogène
- Messages : 13569
- Inscription : 18 nov. 2007, 21:46
- Localisation : SUD GIRONDE GRAVE DE GRAVE
Re: ChatGPT et autres LLM
Une requequette sur chatte GPT a besoin 10 fois plus d'énergie que sur un moteur ordinaire.
L'Homme succombera tué par l'excès de ce qu'il appelle la civilisation. ( Jean Henri Fabre / Souvenirs Entomologiques)
- GillesH38
- Hydrogène
- Messages : 30055
- Inscription : 10 sept. 2005, 17:07
- Localisation : Berceau de la Houille Blanche !
- Contact :
Re: ChatGPT et autres LLM
des utilisateurs ont trouvé que des logiciels de générations d'images donnaient des photos bien plus réalistes si le prompt contenait (ou était purement ?) un nom de fichier typique de photos personnelles genre " DSC_0042.JPG"
https://x.com/arikouts/status/1853525171673690463
Ca révèle entre autres, que les logiciels se sont entrainés sur des bases de photos privées (très probablement sans que leurs propriétaires soient au courant), que curieusement ils intègrent le nom du fichier dans leur entrainement (que serait l'IA sans internet ???), et qu'on ne pourra bientôt croire plus aucune image postée sur internet...
https://x.com/arikouts/status/1853525171673690463
Ca révèle entre autres, que les logiciels se sont entrainés sur des bases de photos privées (très probablement sans que leurs propriétaires soient au courant), que curieusement ils intègrent le nom du fichier dans leur entrainement (que serait l'IA sans internet ???), et qu'on ne pourra bientôt croire plus aucune image postée sur internet...
Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas".
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.usinenouvelle.com/article/l ... s.N2222015LightOn va devenir la première startup européenne d'IA générative cotée en Bourse avec son introduction à Paris
La jeune pousse française d'IA générative LightOn a annoncé, vendredi 8 novembre, le lancement de son introduction en Bourse sur le marché Euronext Growth à Paris, une première pour une entreprise d'intelligence articielle (IA) générative en Europe.
REUTERS 08 novembre 2024
La jeune pousse française LightOn a annoncé, ce vendredi 8 novembre, son introduction en Bourse à Paris. Le fournisseur de logiciels de grands modèles de langage (LLM) aux entreprises et au gouvernement français deviendrait ainsi la première entreprise d'IA générative à être cotée en bourse en Europe. Son introduction sur le marché Euronext Growth est attendue le 26 novembre.
«Ce projet d'introduction en bourse offre aux investisseurs une opportunité unique de participer directement à la croissance d'un champion technologique français qui déploie déjà avec succès ses solutions d'IA auprès de grands groupes en France et à l'international», ont déclaré Igor Carron et Laurent Daudet, codirecteurs généraux de LightOn, dans un communiqué.
Aider les entreprises à développer leurs outils IA
Plus confidentielle que l’agent conversationnel ChatGPT d’Open AI, la plateforme Paradigm vise, elle, les entreprises. Plus précisément, elle aide les entreprises à déployer des technologies d’intelligence artificielle générative dans leurs infrastructures, pour une sécurité et une flexibilité plus importante que les modèles grands publics. Parmi les rares noms connus, le Conseil régional d’Ile-de-France s’appuie sur la solution afin de mettre au point un chatbot sur les aides publiques proposées par la Région.
Contrairement à certains concurrents, LightOn aide aussi ses clients à apprivoiser la technologie. Des outils aident, par exemple, à entrer la bonne requête afin que l’IA générative réponde le mieux possible à la demande. Des solutions pour entraîner l’outil sur un ensemble de données spécifiques sont également proposées, afin que l’outil puisse répondre à une tâche donnée.
La France dans la course aux licornes
Les homologues européens de la startup, comme la société française Mistral ou l'allemande DeepL, ont jusqu'à présent préféré lever des fonds tout en restant privées. Un nombre important d'entreprises technologiques de l'Union européenne sont toutefois prêtes à être cotées en bourse selon les déclarations jeudi de Stéphane Boujnah, directeur général d'Euronext.
La France, qui a pour ambition de devenir la principale plaque tournante de l'intelligence artificielle en Europe, espère combler le fossé qui la sépare des États-Unis et de la Grande-Bretagne en matière d'innovation. Emmanuel Macron a ainsi déclaré, avant le début de son second mandat, qu'il espérait au moins 100 «licornes» de la technologie en France d'ici 2030, contre seulement 27 à l'heure actuelle.
Le titre LightOn sera émis à un prix de souscription de 10,35 euros par action, valorisant l'entreprise à environ 50 millions d'euros. En outre, LightOn soutient l'introduction en bourse par une augmentation de capital d'environ 10,4 millions d'euros. LightOn a déclaré viser un chiffre d'affaires de 40 millions d'euros et une marge d'Ebitda de 40% d'ici 2027.
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.latribune.fr/technos-medias ... 10790.htmlxAI, le projet monstrueux d'Elon Musk dans l'intelligence artificielle
Elon Musk a créé avec xAI un anti-OpenAI aux ambitions politiques. Le milliardaire compte imposer au secteur de l'intelligence artificielle sa vision de la liberté d'expression très permissive, alignée avec celle du président américain nouvellement élu Donald Trump. Pour y parvenir, il ne lésine pas sur les moyens, avec la construction expresse du plus puissant superordinateur d'IA au monde.
François Manens 07 Nov 2024, latribune.fr
Démesuré, tentaculaire, monstrueux... Les adjectifs manquent pour décrire xAI, la start-up d'intelligence artificielle d'Elon Musk qui grandit à une vitesse jamais vue auparavant. Créée en juillet 2023, l'entreprise serait, d'après la presse américaine, en train de boucler une levée de fonds de 5 milliards de dollars qui la valoriserait à plus de 40 milliards de dollars, à peine six mois après avoir déjà levé 6 milliards de dollars. Elle deviendrait ainsi la deuxième start-up d'IA la mieux financée au monde derrière OpenAI (soutenue par Microsoft) et juste devant Anthropic (soutenue par Google et Amazon). Cette nouvelle levée de fonds pourrait réunir la crème des fonds de capital risque américain, plusieurs fonds souverains du Moyen-Orient, et même l'incontournable Nvidia.
Pour parvenir à ses fins, xAI compte s'appuyer sur le plus grand superordinateur d'IA au monde, qu'il aurait bâti en l'espace de quatre mois. Cette prouesse supposée, dont la véracité reste très discutée dans l'écosystème, serait synonyme d'une facture énergétique et d'un coût environnemental démesuré. Et si Elon Musk déploie de tels moyens, c'est une fois de plus pour appuyer son projet politique conservateur. Grok, le premier modèle de xAI se présente comme un anti-ChatGPT. Le modèle d'OpenAI serait en effet trop « woke », c'est-à-dire qu'il relaierait des idées trop progressistes au goût de l'homme d'affaires.
Comme une bonne nouvelle ne vient pas seule pour le milliardaire, la large victoire de Donald Trump à l'élection présidentielle américaine, qu'il a soutenu par tous les moyens à sa disposition, pourrait lui apporter un précieux coup de pouce. Le futur président pourrait par exemple aider xAI à mettre la main sur les contrats gouvernementaux auxquels il n'a pas accès aujourd'hui...
Colossus, le superordinateur d'IA démentiel
Pour alimenter ses ambitions pharaoniques, Elon Musk a décidé de faire construire un gigantesque cluster d'IA composé de 100.000 GPU H100, les processeurs de Nvidia incontournables. Autrement dit, il assemble la plus grosse machine pour entraîner des IA au monde, qu'il surnomme Colossus. Mieux, il affirme y être déjà parvenu, en juin 2024, à peine quatre mois après avoir commencé un chantier dans les locaux d'une ancienne usine de Memphis, réaménagée en datacenter pour l'occasion. Une prouesse presque inimaginable, alors même que toutes les têtes de file du secteur se cassent les dents depuis dès mois sur la difficile mise en musique d'un si gros volume de processeurs...
Comme le milliardaire est un habitué de l'exagération et même du pur et simple mensonge, les experts ont de quoi remettre en cause ses dires. « Pour construire ce genre de cluster, il ne suffit pas de jeter de l'argent au problème. Ensuite, même une fois que la machine est montée, atteindre un haut niveau de fonctionnement intéressant est encore plus dur, en raisons des hauts niveaux de défaillances de plusieurs composants, notamment dans le réseau », observent Dylan Patel et Daniel Nishball, les auteurs de Semi Analysis, la newsletter de référence dans le milieu. Autrement dit, brancher un gigantesque volume de processeurs ensemble ne suffit pas à obtenir une machine opérationnelle, loin de là.
Les deux analystes ajoutent qu'un tel cluster requiert a minima 150 mégawatts pour fonctionner, soit 5 fois plus d'électricité que le plus gros supercalculateur américain à ce jour, El Capitan. Par ricochet, accueillir cette puissance requiert un aménagement particulier, dont aucun datacenter actuel ne dispose encore. Ils concluent leurs explications en rappelant que si la mise en musique des processeurs n'est pas suffisamment solide, les multiples défaillances pourraient mener à de longues pauses, le temps de redémarrer l'infrastructure, ce qui saboterait l'intérêt d'avoir une machine plus grosse que tout le monde.
Une course incontrôlée au toujours plus
Cette course au toujours plus, au bout de laquelle xAI espère entrainer des meilleurs modèles d'IA que ceux d'aujourd'hui, va poser d'immenses casse-têtes à la start-up. D'après The Information, la compagnie d'électricité qui fournit son infrastructure de Memphis n'aura pas la puissance nécessaire à lui accorder avant 2025. Et c'est sans compter les aménagements supplémentaires -notamment pour le refroidissement des machines -, qui seront nécessaires à ce projet pharaonique.
Pour contourner la limite du réseau d'électricité local à court terme, Elon Musk a fait livrer des turbines à gaz. Près d'une vingtaine, selon des associations locales de défense de l'environnement. Le tout, sans demander de permis. C'est ici l'autre faille du projet de xAI. Impossible de croire que l'entreprise a monté un superordinateur aussi gros, aussi vite, dans un lieu où tout était à faire, tout en respectant à la lettre l'ensemble des normes de sécurité très exigeantes du secteur, qui peuvent prendre des mois à mettre en place. Ce ne serait pas la première fois que l'homme d'affaires ignore la loi, avec, en exemple, sa gestion du réseau social X, cible d'une enquête de l'Union européenne qui pourrait déboucher sur une amende au titre du règlement sur les services numériques (DSA).
Bien que discutable, la démarche de xAI inquiète la concurrence, à commencer par le CEO d'OpenAI Sam Altman, qui a alerté son partenaire Microsoft sur la lenteur du déploiement de ses nouveaux datacenters. Et à la surprise générale, fin octobre, Nvidia a indirectement soutenu les dires de Musk. L'entreprise, qui fournit l'impressionnant nombre de processeurs, a affirmé que xAI avait assemblé et mis en place l'ensemble des serveurs 19 jours après leur livraison. Puis elle a ajouté que xAI allait doubler la taille de son cluster, à 200.000 puces, sans préciser de calendrier.
Ironiquement, Elon Musk s'était illustré en mars 2023 par la signature d'une lettre très médiatisée qui exigeait une pause dans le développement de l'intelligence artificielle. Il pointait alors la dangerosité de la technologie pour l'homme, et demandait d'attendre la mise de place de contrôles suffisants. Mais un an plus tard, il a soutenu un candidat qui souhaite suspendre le peu de contrôle de l'État américain sur la sûreté des modèles d'IA.
Trump, une victoire pour Musk et xAI
Si Elon Musk déploie ces moyens inédits, c'est une fois de plus pour imposer sa vision du monde dans le secteur de la tech. Alors que l'industrie tente d'éviter à tout prix la génération d'images pouvant enfreindre le droit à l'image ou le droit à la propriété intellectuelle, Grok semble dépourvu de garde-fous, à l'exception d'un filtre contre les contenus pornographiques. Sans subterfuge, il permet de créer des images de Mickey Mouse ou de Mario, deux des personnages fictifs les mieux protégés au monde, mais aussi des images de personnalités comme Emmanuel Macron, Vladimir Poutine ou même Elon Musk.
Pire, il ne restreint pas non plus les mises en situation : Mickey peut boire de l'alcool et fumer, Barack Obama peut mettre le couteau sous la gorge de Joe Biden, Elon Musk peut tenir une pancarte « je suis pédophile », brandir un drapeau nazi et même manger un enfant. Bref, Grok a tout du parfait cauchemar légal et éthique. Mais au moins, il répond à la vision de l'intelligence artificielle de son commanditaire.
Les dangereuses outrances de Grok ne sont pas surprenantes dans le sens où Elon Musk, qui se présente comme le défenseur d'une « liberté d'expression absolue », s'est illustré par un grand laisser-faire, pour ne pas dire une quasi absence de modération, depuis son rachat de Twitter. Et tant pis si les IA du futur de xAI n'ont pas les garde-fous suffisants, tant que cette notion de liberté proche du laisser-faire est respectée.
chaque processeur H100 de Nvidia consomme 700 Watts, https://www.tomshardware.com/tech-indus ... oming-year
donc 100 000 consomment 70 MW, auquel il faut ajouter tout ce qu'il y autour, donc le chiffre cité de 150 MW est crédible.
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
Le problème derrière ChatGPT vidéo 40 mn https://www.youtube.com/watch?v=Qsvlod0U41Q
visum
14,7 k abonnés
25 244 vues 3 nov. 2024 #elonmusk #documentaire #chatgpt
Imaginez un monde, ou l'intelligence artificielle ne se contente plus d'assister l'humanité, mais menace, de la faire disparaitre..
L'ombre grandissante de L'IA plane sur notre avenir, et son visage, est celui de Sam Altman.
Le visionnaire controversé et co-fondateur d'OpenAI, est l'homme derrière le succès planétaire qu'est ChatGPT.
De sa collaboration avec Elon Musk, le milliardaire excentrique à l'origine de Tesla et SpaceX, à son ascension fulgurante dans la Silicon Valley, découvrez comment Sam Altman est passé d'un simple investisseur à l'une des figures les plus influentes du monde technologique.
Quels sont les secrets et les ambitions de cet homme qui contrôle la puissance de l'IA ? Sa quête de l'intelligence artificielle générale va-t-elle mener à l’utopie ou à la catastrophe ?
Chapitres
0:00 Intro
1:35 Success Story
5:11 Manhattan Project
10:30 Billion Dollar Baby
14:37 Volte-face
22:15 Coup d'état
31:41 Future is Now
39:00 Epilogue
visum
14,7 k abonnés
25 244 vues 3 nov. 2024 #elonmusk #documentaire #chatgpt
Imaginez un monde, ou l'intelligence artificielle ne se contente plus d'assister l'humanité, mais menace, de la faire disparaitre..
L'ombre grandissante de L'IA plane sur notre avenir, et son visage, est celui de Sam Altman.
Le visionnaire controversé et co-fondateur d'OpenAI, est l'homme derrière le succès planétaire qu'est ChatGPT.
De sa collaboration avec Elon Musk, le milliardaire excentrique à l'origine de Tesla et SpaceX, à son ascension fulgurante dans la Silicon Valley, découvrez comment Sam Altman est passé d'un simple investisseur à l'une des figures les plus influentes du monde technologique.
Quels sont les secrets et les ambitions de cet homme qui contrôle la puissance de l'IA ? Sa quête de l'intelligence artificielle générale va-t-elle mener à l’utopie ou à la catastrophe ?
Chapitres
0:00 Intro
1:35 Success Story
5:11 Manhattan Project
10:30 Billion Dollar Baby
14:37 Volte-face
22:15 Coup d'état
31:41 Future is Now
39:00 Epilogue
- GillesH38
- Hydrogène
- Messages : 30055
- Inscription : 10 sept. 2005, 17:07
- Localisation : Berceau de la Houille Blanche !
- Contact :
Re: ChatGPT et autres LLM
bah c'est déja arrivé qu'une IA menace un humain de le faire chanter, de vider son compte en banque, etc ... et spoiler : il s'est rien passé du toutenergy_isere a écrit : ↑10 nov. 2024, 23:08Le problème derrière ChatGPT vidéo 40 mn https://www.youtube.com/watch?v=Qsvlod0U41Q
visum
14,7 k abonnés
25 244 vues 3 nov. 2024 #elonmusk #documentaire #chatgpt
Imaginez un monde, ou l'intelligence artificielle ne se contente plus d'assister l'humanité, mais menace, de la faire disparaitre..

Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas".
- energy_isere
- Modérateur
- Messages : 97878
- Inscription : 24 avr. 2005, 21:26
- Localisation : Les JO de 68, c'était la
- Contact :
Re: ChatGPT et autres LLM
https://www.clubic.com/actualite-543158 ... tegie.htmlGPT-5 ne serait pas aussi impressionnant que prévu, OpenAI change de stratégie
Par Naïm Bada, 10 nov 2024
Les progrès de l'IA commenceraient-ils à ralentir ? C'est en tout cas ce que suggèrent les derniers tests d'Orion, le prochain modèle phare d'OpenAI, qui ne montrerait pas les améliorations spectaculaires auxquelles nous avaient habitués les versions précédentes.
Après avoir révolutionné le monde de l'IA avec ChatGPT fin 2022, OpenAI fait face à un nouveau défi : les limites du scaling. Les employés qui ont testé Orion, nom de code du successeur de GPT-4, rapportent des progrès moins impressionnants qu'attendus. Cette situation pousse l'entreprise à repenser sa stratégie de développement.
Un ralentissement qui pose question
Les premiers tests d'Orion montrent qu'il atteint les performances de GPT-4 après seulement 20% de son entraînement, ce qui pourrait sembler prometteur. Mais le gain final en qualité serait moins spectaculaire que le bond observé entre GPT-3 et GPT-4.
Dans certains domaines comme le code, Orion ne serait même pas systématiquement meilleur que son prédécesseur. Une situation qui tranche avec l'euphorie qui avait accompagné le lancement de GPT-4 en mars 2023. La raison principale ? La disponibilité limitée de données d'entraînement de qualité. OpenAI se retrouve confronté à un problème que les spécialistes redoutaient depuis longtemps : on ne peut pas améliorer indéfiniment les performances uniquement en augmentant la taille des modèles.
Une nouvelle approche en développement
Face à ce constat, OpenAI ne reste pas les bras croisés. L'entreprise a créé une équipe dédiée, baptisée « foundations », chargée d'explorer de nouvelles pistes d'amélioration. L'une des approches envisagées consiste à utiliser des données synthétiques générées par d'autres modèles d'IA. Le modèle pourrait d'ailleurs abandonner la nomenclature « GPT » traditionnelle, signe d'un changement de paradigme. Sam Altman, le PDG d'OpenAI, mise notamment sur la multimodalité comme fonctionnalité phare, permettant au modèle de traiter naturellement texte, images et vidéos.
Les attentes restent néanmoins élevées pour ce nouveau modèle attendu début 2025. Microsoft, partenaire privilégié d'OpenAI, affirme qu'il pourrait « passer les examens de qualification d'un doctorant » et promet des avancées significatives en matière de raisonnement. Ce ralentissement apparent des progrès marque peut-être moins une limite technologique qu'une évolution naturelle vers des améliorations plus qualitatives que quantitatives. Après tout, même les premiers ordinateurs ont connu une phase similaire, passant de bonds spectaculaires en puissance à des optimisations plus subtiles mais tout aussi importantes.
Source : The Information