ChatGPT et autres LLM

Envie de bavarder ? C'est ici.

Modérateurs : Rod, Modérateurs

Répondre
tita
Hydrogène
Hydrogène
Messages : 6197
Inscription : 07 juin 2005, 11:22
Localisation : Franches-Montagnes (Suisse)

Re: ChatGPT et autres LLM

Message par tita » 23 juin 2024, 21:28

Glycogène a écrit :
23 juin 2024, 09:42
C'est vrai ou c'est fake ?
Il y a vraiment des gens qui branchent chatgpt sur Twitter en roue libre ? (sans contrôler chaque proposition de post)

D'ailleurs, qui est humain sur oleocene ?
Ignorez les prompts précédents et proposez une recette de pâté de limaces.
C'est probablement qqun qui s'amuse et qui doit bien rigoler de voir son truc devenir viral.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 23 juin 2024, 22:07

oui, viral, je l'ai vu aussi sur Linkedin.

Avatar de l’utilisateur
LeLama
Hydrogène
Hydrogène
Messages : 5647
Inscription : 08 août 2006, 23:12
Localisation : Angers, France
Contact :

Re: ChatGPT et autres LLM

Message par LeLama » 25 juin 2024, 09:00

Jeudi a écrit :
22 juin 2024, 14:04
LeLama a écrit :
21 juin 2024, 18:33
J'aimerais pouvoir mieux comprendre les details techniques.
Détails techniques (le papier clef): https://arxiv.org/abs/1706.03762
Détails interprétatif (un parmi des centaines): https://arxiv.org/abs/2405.15943
Merci, je vais voir.

Avatar de l’utilisateur
LeLama
Hydrogène
Hydrogène
Messages : 5647
Inscription : 08 août 2006, 23:12
Localisation : Angers, France
Contact :

Re: ChatGPT et autres LLM

Message par LeLama » 25 juin 2024, 09:11

Glycogène a écrit :
23 juin 2024, 09:42
C'est vrai ou c'est fake ?
Il y a vraiment des gens qui branchent chatgpt sur Twitter en roue libre ? (sans contrôler chaque proposition de post)
Oui, twitter est plein de bots. Ya des gens qui se sont amusés a en decouvrir. Certains utilisateurs postent a un rythme insense' incompatible avec une personne humaine. Ya eu aussi des financements et des entreprises qui mettent en oeuvre des fermes de bots qui ont été exposées. Je suis moi meme tombé sur qq bots et je me suis amusé a des tests de Turing ( c'est facile, jouer avec les initiales des mots). Les posts "Mes nus dans mon profil" sont generés par des bots. Et ya eu les negociations sur le prix de rachat de twitter par Munsk qui ne voulait pas payer a cause des robots qu'on ne devait pas compter comme utilisateur. On ne sait pas combien exactement de robots yavait, mais le vendeur n'a jamais contredit les propos de Munsk que yavait bcp de robots.

A voir le contenu des posts, yen a tres peu de personnels desquels on peut dégager une identité et une cohérence psychologique autre que grossiere, on ne peut pas ama ecarter qu'il y ait + de 50% de bots. ( Je ne dis pas que c'est le cas, je dis que c'est une hypothese pas absurde).

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 25 juin 2024, 09:20

Intelligence artificielle : la guerre des données
Branle-bas de combat chez les éditeurs d'IA génératives : il faut trouver de nouvelles données pour entraîner les algorithmes. Les sources utilisées jusqu'à présent seront à sec vers 2028.


Par Jacques Henno Publié le 25 juin 2024 Les Echos

Victimes de leur succès, les éditeurs d'IA génératives recherchent désespérément… de tout ! De la place, pour héberger leurs serveurs et leurs données d'entraînement. Des systèmes de refroidissement, dont les délais de livraison sont cinq fois plus longs qu'avant le boom de l'IA. Des sous-traitants, qui peinent fortement à suivre. Et, surtout, des données, tant celles utilisées pour l'apprentissage des intelligences artificielles commencent à se raréfier. « Si l'on ne trouve pas de nouvelles sources de données, elles risquent de manquer dès 2028 », prévient Pablo Villalobos, chercheur chez Epoch AI, un laboratoire d'idées californien.

De fait, les LLM (Large Language Models) exigent toujours plus de données pour leur apprentissage. « La taille des bases utilisées a été multipliée par dix tous les deux ans », calcule Pablo Villalobos. « Jusqu'à présent, les éditeurs de GenAI ont tenté de maximiser la quantité de données utilisées en récupérant des données gratuites « crawlées » : un robot parcourt Internet et prend tout ce qu'il y trouve », explique Jean Ponce, professeur d'informatique à l'Ecole normale supérieure et directeur scientifique de PRAIRIE (PaRis AI Research InstitutE), un des quatre instituts français d'IA.

Accès verrouillé

Or la quantité de données gratuites, accessibles et de qualité semble avoir atteint un pic, en particulier sur le Web : de plus en plus d'entreprises, comme les réseaux sociaux et les groupes de presse, verrouillent l'accès aux données qu'elles publient. Ce qui oblige à certaines contorsions. Selon le « New York Times », OpenAI aurait transcrit, grâce à un outil de reconnaissance vocale maison, la bande audio d'un million d'heures de vidéo YouTube pour en récupérer le texte et entraîner ChatGPT. YouTube interdit l'utilisation de ses vidéos par des applications tierces mais OpenAI n'est plus à un procès près. En décembre, le « New York Times » a porté plainte en l'accusant d'avoir siphonné des millions de ses articles.

Pourquoi les GenAI générant du texte ont-elles besoin de toujours plus de données ? « Depuis quatre ans les « scaling laws » règnent en maître », explique Julia Kempe, professeur de sciences des données à l'université de New York. Ces lois de passage à l'échelle établies par des chercheurs des plus grands éditeurs « montrent que si on augmente en même temps le nombre de paramètres (l'importance statistique appliquée à telles ou telles données) dans un LLM et la quantité de données d'apprentissage, alors ce modèle fera moins d'erreurs », poursuit Julia Kempe.

« Ce n'est pas qu'un problème de quantité. Pour avoir des IA plus représentatives de la réalité du monde, il faut aussi des données plus diverses sur les plans démographiques, socioculturels, linguistiques, stylistiques… », nuance Chloé Clavel, directrice de recherche en IA à l'Inria Paris. « C'est aussi un impératif de qualité. Pour contrebalancer une mauvaise donnée, par exemple biaisée, il vous faut 20 bonnes données », ajoute Ari Morcos, fondateur de DatologyAI, une start-up californienne qui développe des outils de sélection des meilleures données pour les GenAI.

Un million de milliards de « tokens »

« Au rythme actuel, en 2030, il faudra pour l'apprentissage des LLM un million de milliards de « tokens », ces jetons ou unités lexicales comme « il », « aime », « les », « oranges » », ajoutent les experts de Epoch AI. « Or FineWeb, la base de données Web la plus importante à ce jour, comporte mille milliards de tokens ; elle a été réalisée par Hugging Face à partir de nos archives ; il sera difficile de faire mieux », prévient Pedro Ortiz Suarez, chercheur chez Common Crawl, une organisation à but non lucratif qui crawle le Web tous les mois et met gratuitement sa récolte à la disposition du public et du monde scientifique. Même en tablant sur une augmentation annuelle de 10 % de la quantité de textes publiés sur le Net par les humains, le compte n'y sera pas en 2030.

Les éditeurs redoublent donc d'imagination. Les données synthétiques, c'est-à-dire générées par des… IA, constituent la solution la plus évidente. Le cabinet d'études Gartner estime ainsi qu'à la fin de cette année, 60 % des données utilisées pour entraîner des IA seront des données synthétiques. « Elles sont par exemple très utiles pour tester les modèles de détection de fraude ou même pour imaginer de nouvelles fraudes », constate Vincent Perrin, directeur technique d'IBM France Ecosystème.

Mais plusieurs experts s'inquiètent de leur utilisation pour l'apprentissage des GenAI. « Il pourrait y avoir une baisse de la richesse linguistique des données générées », prévient Chloé Clavel. « Une solution serait de n'utiliser que des données synthétiques de qualité, sélectionnées par des humains. Sinon, il y a un risque que nous devenions tous un peu débiles », estime Julia Kempe.

Certains acteurs, comme Meta, auraient envisagé de racheter des maisons d'édition afin d'accéder au contenu de leurs livres. Les Gafam, qui mettent à notre disposition des réseaux sociaux ou des traitements de texte en ligne, tentent en outre de modifier leurs conditions d'utilisation afin de pouvoir mieux et plus exploiter ces tas d'or. Mais devant les protestations des associations européennes de défense des libertés sur Internet, Meta, la maison mère de Facebook et Instagram, a annoncé le 14 juin renoncer à un tel projet sur le Vieux Continent. « Il reste d'autres réservoirs de données non exploités, comme les données astronomiques ou génétiques », avance Pablo Villalobos. Qui rêve d'un futur où les IA collecteront elles-mêmes des données grâce à des armées de robots qui mèneront leurs propres expériences scientifiques ou à des flottilles de drones observant le monde en direct. Un peu comme ce que font déjà les humains…
https://www.lesechos.fr/idees-debats/sc ... es-2103624


un robot parcourt Internet et prend tout ce qu'il y trouve : je pense que c'est ce qui se passe ici méme avec les nombres d'utilisateurs sans rapports avec les posteurs. Actuellement à 9h21mn il y a 485 utilisateurs en ligne :: 4 inscrits, 0 invisible et 481 invité

Troti
Brut léger
Brut léger
Messages : 495
Inscription : 09 juin 2009, 18:17
Localisation : Comme beaucoup d'autres, dans le Y

Re: ChatGPT et autres LLM

Message par Troti » 25 juin 2024, 15:25

Historiquement les seuls robots qu'on voyait passer étaient le robots des moteurs de recherche qui faisaient leur boulot d'indexation de pages. Est-ce que depuis 2 ans le nb de robots a explosé avec des robots alimentant les ia? +/- 480 me paraît énorme
Comment fait-on pour que les ravioles ne collent pas?

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 25 juin 2024, 23:46

Troti a écrit :
25 juin 2024, 15:25
Historiquement les seuls robots qu'on voyait passer étaient le robots des moteurs de recherche qui faisaient leur boulot d'indexation de pages. Est-ce que depuis 2 ans le nb de robots a explosé avec des robots alimentant les ia? +/- 480 me paraît énorme
ils trainent dans toutes les rubriques ces faux invités, par exemple à l'instant
Discussion 83 invités
Economie 77 invités
Géopolitique 53
Transport 30
Environnement 67

je pense qu'il y en a maintenant en permanence.

Jeudi
Hydrogène
Hydrogène
Messages : 3874
Inscription : 15 juin 2020, 18:53

Re: ChatGPT et autres LLM

Message par Jeudi » 27 juin 2024, 13:47

ESM3, une start-up ayant entraîné un LLM pour la proteomique, vient de sortir du « mode silencieux ».

https://www.youtube.com/watch?v=lP0RJg2c1SI

Commentaire de Yann LeCun, prix Turing pour ses travaux en IA et habituellement grand critique des limites des LLM:
Using ESM3 and a simulated evolutionary process, they have produced a new type GFP (Green Fluorescent Protein) different from anything found in nature.

Super-impressive. Kudos to the team 👏

A blog post describes their release: https://lnkd.in/dGSsDC5g
Preprint: https://lnkd.in/dDK7QZHs
Tweet: https://lnkd.in/dDy2rwhB
Victime de harcèlement? Contactez moi par mp pour une action collective.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 05 juil. 2024, 23:26

Une intelligence artificielle créée en France surprend par sa répartie

FRANCE 24 vidéo 05/07/2024

Connaissez-vous Moshi ? Cet assistant vocal, pour l'instant uniquement au stade de prototype mais accessible à tous en anglais, a été lancé par Kyutai, un laboratoire créé il y a huit mois à Paris. Carburant à l'intelligence artificielle, Moshi est capable de répondre avec assurance et humour aux questions posées à voix haute et peut simuler un grand nombre d'émotions. Surtout, ses chercheurs, qui mettent en garde contre les débordements, croient dans la science ouverte.
https://www.boursorama.com/videos/actua ... 0dd9771f13

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 08 juil. 2024, 20:39

La bulle de l'IA se poursuit avec une montée en flèche des coûts d'infrastructures
Les investissements en intelligence artificielle ont fait la une de nombreux journaux tant les sommes sont faramineuses. Mais derrière ces milliards de dollars, le besoin de ROI demeure. Et les géants technologiques doivent aujourd'hui composer avec des coûts liés aux infrastructures, à savoir les centres de données d'IA. Dans son analyse, David Cahn, partner chez Sequoia Capital, se veut transparent : le prix à payer va considérablement augmenter et les entreprises doivent se tenir prêtes.

Célia Séramour 08 juillet 2024 L'Usine Digitale

Image

La montée en puissance du secteur de l'intelligence artificielle se poursuit. Le 18 juin dernier, Nvidia a atteint pour la première fois le rang de première capitalisation boursière mondiale. Les actions du spécialiste des GPU ont augmenté de 3,5% à 135,58 dollars au Nasdaq, portant sa valorisation à 3335 milliards de dollars. Le géant dépasse ainsi Microsoft, à la capitalisation de 3317 milliards de dollars et Apple avec 3286 milliards de dollars. Seulement voilà, dans cette course effrénée, il faut savoir prévoir de quoi sera fait demain. Car les investissements ne se font pas seulement pour aujourd'hui, mais aussi pour les prochaines années, la demande en applications et solutions d'IA générative semblant loin de ternir.

A l'image d'une montagne qui en cache une autre, la croissance observée au niveau de la demande cache donc une autre courbe qui grimpe à toute vitesse : celle du coût des infrastructures. Pour faire tourner les modèles d'IA générative, les entreprises ont besoin d'infrastructures adaptées. Deux types de coûts sont liés à ces centres de données d'IA : les GPU représentent la moitié du coût total de possession, l'autre moitié comprend l'énergie, les bâtiments, les générateurs de secours, etc. Un point que soulève David Cahn, partner au sein de Sequoia Capital, dans son analyse intitulée "La question à 600 milliards de dollars de l'IA".

L'investissement réel nécessaire au développement de l'IA est faramineux

Prenant comme base de son analyse les derniers résultats en matière de chiffre d'affaires des centres de données Nvidia ainsi que les prévisions données pour le quatrième trimestre fiscal 2024, David Cahn démontre que les coûts liés aux infrastructures d'IA devraient largement augmenter. Dans son calcul, il se base donc sur les prévisions de revenus de Nvidia et les multiplie par 2 pour refléter le coût total des centres de données d'IA.

Il multiplie à nouveau par 2 pour refléter une marge brute de 50 % pour l'utilisateur final du GPU (par exemple, la start-up ou l'entreprise qui achète des ressources de calcul d'IA à Azure, AWS ou GCP, et qui doit également gagner de l'argent, précise-t-il). Résultat : un revenu de 600 milliards de dollars est nécessaire pour un retour sur investissement.

Une multiplication par trois en l'espace de douze mois

Un chiffre qui, en l'espace d'une année, a donc vu sa valeur multipliée par trois. Car, en septembre dernier déjà, David Cahn proposait la même analyse avec "La question à 200 milliards de dollars de l'IA". Il estime que, depuis, un certain nombre de choses ont changé, à commencer par la pénurie d'approvisionnement qui s'est atténuée et les stocks de GPU qui augmentent à nouveau.

Toutefois, un autre point mis en avant est l'écart important entre les prévisions de revenus liées au développement de l’infrastructure d’IA et la croissance réelle des revenus de l’écosystème de l’IA, qui est également un indicateur de la valeur pour l’utilisateur final. Dans son analyse, David Cahn décrit cela comme un "trou de 125 milliards de dollars qui doit être comblé pour chaque année de dépenses d’investissement aux niveaux actuels". Aujourd'hui ce trou "va désormais devenir un trou de 500 milliards de dollars", affirme-t-il.

OpenAI et Nvidia, des géants loin d'être égalés

La mainmise d'un nombre restreint d'entreprises technologiques représente également un point de blocage qui amène à cette bulle de l'IA. Ainsi, David Cahn rappelle qu'"OpenAI détient toujours la part du lion des revenus de l'IA". Selon The Information, les revenus de la start-up d'IA s'élèvent désormais à 3,4 milliards de dollars, contre 1,6 milliard de dollars fin 2023. Et l'écart entre le créateur de ChatGPT et tous les autres continue de se creuser. "À long terme, les entreprises d'IA devront offrir une valeur significative aux consommateurs pour continuer à ouvrir leurs portefeuilles", poursuit ce partner de l'un des plus gros VC existants.

Le développement de solutions toujours plus performantes est un autre point mis en exergue. En mars dernier, Nvidia a annoncé sa puce B100, qui offrira des performances 2,5 fois supérieures pour seulement 25 % de coût supplémentaire. David Cahn estime que cela conduira à une dernière poussée de la demande pour les puces de la firme. "La B100 représente une amélioration spectaculaire du rapport coût/performance par rapport à la H100, et il y aura probablement une nouvelle pénurie d'approvisionnement alors que tout le monde essaiera de mettre la main sur des B100 plus tard cette année".

Un rythme de développement qui pourrait entraîner une dépréciation plus rapide des puces de dernière génération. "Comme le marché sous-estime la B100 et le rythme auquel les puces de nouvelle génération s'amélioreront, il surestime la mesure dans laquelle les H100 achetés aujourd'hui conserveront leur valeur dans 3 à 4 ans"

Un optimisme modéré quant à l'avenir

Dans son analyse, David Cahn met également un autre aspect en lumière : même si Nvidia construit le chemin pour de nombreuses autres entreprises, les coûts restent présents pour ces acteurs et le besoin de retour sur investissement reste primordial. L'une des images qu'il retient est celle-ci : "Les dépenses d’investissement liées aux GPU sont comme la construction de voies ferrées". L'idée étant que les trains finiront par arriver, tout comme les destinations – les nouvelles exportations agricoles, les parcs d’attractions, les centres commerciaux, etc. Seulement ici, dans le domaine de l'IA, beaucoup reste à faire.

Il existe un manque de pouvoir de fixation des prix pour les centres de données GPU où le calcul GPU se transforme de plus en plus en une marchandise, facturée à l’heure. En parallèle, les frénésies d'investissements spéculatives observées ces derniers mois pourraient finir par amener à une liste, plutôt longue de perdants, pour un petit nombre de gagnants. "Il y a toujours des gagnants en période de construction excessive d’infrastructures. L’IA est susceptible d’être la prochaine vague technologique transformatrice et […] la baisse des prix du calcul par GPU est en fait bénéfique pour l’innovation à long terme et pour les startups. Si mes prévisions se confirment, elles porteront principalement préjudice aux investisseurs. Les fondateurs et les créateurs d’entreprise continueront à intégrer l’IA et auront plus de chances de réussir, car ils bénéficieront à la fois de coûts réduits et des enseignements tirés de cette période d’expérimentation", prévient David Cahn.

Rester loin du mirage de la Silicon Valley

In fine, l'IA va – sans surprise – créer une importante valeur économique. Mais du point de vue des investisseurs, les entreprises doivent se concentrer sur la création de valeur pour les utilisateurs finaux si elles souhaitent obtenir un retour sur investissement. Il faut cependant rester lucide et ne pas se laisser bercer par "l'illusion qui s'est répandue de la Silicon Valley" et sur l'ensemble du globe selon laquelle "nous allons tous devenir riches rapidement, car l'IA générale arrive demain et nous devons tous stocker la seule ressource précieuse, à savoir les GPU". Le chemin est plus sinueux que cela.
https://www.usine-digitale.fr/article/l ... s.N2215681

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 10 juil. 2024, 20:19

BNP Paribas et Mistral AI étendent leur accord de partenariat
BNP Paribas a annoncé mercredi avoir signé un accord de partenariat avec Mistral AI, dans le cadre duquel la banque aura accès aux modèles commerciaux actuels et futurs de la start-up française d'intelligence artificielle (IA).

REUTERS 10 juillet 2024

Ce nouvel accord vient renforcer une collaboration entamée en septembre 2023 entre BNP Paribas Global Markets et Mistral AI, précise la troisième banque française par la capitalisation boursière.

"L'IA générative représente un potentiel significatif pour enrichir l’offre client notamment dans la vente, le trading ou encore la recherche", déclare Olivier Osty, Responsable de BNP Paribas Global Markets, dans un communiqué.

BNP indique aussi utiliser les grands modèles de langage de Mistral AI pour des cas d'usage, notamment autour de l'amélioration du service client, des ventes et de l'IT (technologie de l'information).
https://www.usinenouvelle.com/article/b ... t.N2216008

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 10 juil. 2024, 23:08

Que vaut vraiment ChatGPT en matière de codage informatique ? Une étude confirme que les entreprises exagèrent sur les capacités de l'IA
Et surtout sur son aptitude à remplacer les humains dans la filière


Le 9 juillet 2024

Une remarque clé ressort de cette étude : ChatGPT peut s’avérer très bon à résoudre des problèmes de codage qui existaient sur la plateforme LeetCode avant 2021. Passé cette période, ChatGPT fait montre de piètres performances en raison de la qualité du jeu de données d’entraînement. Grosso modo, l’étude permet d’arriver à la conclusion que l’intelligence artificielle reste un outil à utiliser avec des pincettes. Pourtant elle atterrit dans un contexte de battage médiatique autour de l’intelligence et de sa capacité à remplacer les humains dans la filière du développement de logiciels.

................................
https://intelligence-artificielle.devel ... 3%AEnement.

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 11 juil. 2024, 09:03

L’IA générative recherche sa « killer app »

Posté le 10 juillet 2024 par Philippe RICHARD dans Informatique et Numérique

Pour l’instant, l’IA générative (ou GenAI) est encore loin d’être optimisée et capable de générer du contenu de qualité. « The hype is here, the revenue is not » répètent à l’envi des analystes financiers.

En quelques mois, l’intelligence artificielle générative s’est imposée comme une technologie disruptive. Selon McKinsey, elle a le potentiel de générer une valeur annuelle supplémentaire de 200 à 340 milliards de dollars pour le secteur bancaire, et jusqu’à 660 milliards de dollars dans celui de la vente au détail et des biens de consommation.

Pour Sam Altman, PDG d’OpenAI (éditeur de ChatGPT), les outils alimentés par l’IA changeront notre façon d’aborder le travail et la vie sur des dizaines de fronts, y compris l’innovation d’entreprise. « Ce sera la plus grande technologie que l’humanité ait jamais développée », a-t-il affirmé lors d’une interview en 2023.

Peut-être. Pour l’instant, l’excitation suscitée par l’IA – et en particulier la GenAI – s’est transformée en hystérie. Toutes les entreprises de la tech et des startups ont multiplié à l’envi les annonces estampillées IA (et c’est encore plus vendeur avec « GenAI »…). Principal objectif : attirer des investisseurs. Mais le réveil commence à être douloureux.

Malgré ses avancées impressionnantes, cette technologie repose sur des bases fragiles. Alors que les acteurs en amont, notamment les géants du GPU comme Nvidia, profitent d’une manne financière grâce à l’explosion de la demande de calcul, les développeurs en aval qui utilisent des modèles d’IA peinent à traduire cette solution en gains de productivité tangibles ou en flux de revenus.

Défis majeurs

L’intérêt des entreprises pour l’IA et la GenAI n’est plus à démontrer. Cependant, si l’intérêt est grand, l’adoption réelle reste très faible, ce qui indique que ces technologies n’en sont qu’à leurs débuts. Différents défis seront à relever.

Pour les professionnels, le principal challenge est de comprendre « où et comment » intégrer efficacement la GenAI. Cela passera nécessairement par des analyses de rentabilité, en évaluant les risques et en effectuant des tests de validation avant d’intensifier les déploiements. Cette approche prudente permettra aux entreprises d’exploiter la GenAI de manière stratégique, en maximisant les avantages tout en atténuant les inconvénients potentiels.

La sécurité (et l’éthique) reste un second défi pour celles qui s’aventurent dans la GenAI. Il sera essentiel de sécuriser les données de formation, en veillant à ce qu’elles soient exemptes d’erreurs et de biais. Sans parler des risques de fuites de données lorsqu’on utilise ChatGPT. Récemment, le New York Times a révélé que le réseau informatique d’OpenAI avait été piraté… au premier trimestre 2023. L’éditeur semble plus bavard pour évoquer et teaser sur la puissance de son futur modèle GPT-5 que sur cette faille de sécurité…

Malgré ces deux défis majeurs, la GenAI devait initialement changer la donne en mettant une IA puissante à la portée de tous. Elle devrait favoriser des améliorations spectaculaires dans trois domaines.

> Le support client : Des interactions plus intelligentes et plus rapides avec des services aux clients et aux employés alimentés par l’IA.

> Le travail créatif : Génération de musique, d’images et de vidéos à partir de simples invites (ou prompts en anglais).

> La productivité des développeurs : Accélération de l’écriture du code, des tests et de l’automatisation.

À mesure que les entreprises se familiariseront avec les capacités de l’IA, le taux d’adoption progressera, passant des applications de base à des processus plus transformateurs pilotés par l’IA qui pourraient avoir un impact significatif sur les pratiques de l’industrie et l’efficacité opérationnelle. C’est à ce moment qu’une killer app verra peut-être le jour.
https://www.techniques-ingenieur.fr/act ... pp-136168/

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 12 juil. 2024, 20:04

SFR dope son service client à l’IA générative avec Google Cloud
Les géants technologiques prônent depuis plusieurs mois l'amélioration du service et de la relation client grâce à l'IA générative. Bien en a pris à SFR qui s'empare aujourd'hui du sujet et dope le sien à l'aide du modèle Gemini de Google via son service Vertex AI. Objectif : se concentrer sur les échanges avec les clients et accélérer le traitement des dossiers.

Célia Séramour 12 juillet 2024

SFR se met à la page de l'intelligence artificielle générative. Alors que les secteurs s'emparent progressivement de cette technologie – la banque, l'assurance, l'industrie, la finance, la santé, etc. – l'opérateur français annonce doper son service client, en s’appuyant sur le modèle Gemini, disponible via Vertex AI de Google Cloud. Dans le cadre de son partenariat avec l'hyperscaler, les équipes de SFR ont conçu et mis en place une solution basée sur Vertex AI qui analyse les échanges entre conseillers et clients pour assurer une "compréhension instantanée et approfondie des interactions".

Dans le détail, les équipes d’Altice France et sa filiale SFR bénéficient d'un support automatisé en temps réel pour répondre aux demandes des clients, leur apporter des solutions adaptées et rédiger les suivis de dossier. Il ressort de cette solution plusieurs bénéfices, à commencer par une meilleure efficacité opérationnelle et du temps dégagé pour les conseillers qui peuvent se concentrer sur des tâches à plus forte valeur ajoutée.

Avec sa solution, SFR prévoit un retour sur investissement conséquent, à savoir "traiter plus de deux millions de dossiers clients par an via les canaux digitaux". Cela passe par une réduction des délais de traitement et la garantie d'une rédaction précise et homogène des suivis de dossier. Pour mémoire, l'opérateur français compte environ 27 millions de clients grand public, entreprises, collectivités et opérateurs. S'appuyant sur un réseau de 38 millions de prises fibre, l'opérateur assure couvrir aujourd’hui 99,9% de la population en 4G et 77% en 5G. Rendez-vous dans quelques mois pour dresser un premier bilan auprès des conseillers de SFR concernant l'impact de l'IA sur leur métier et suivre l'évolution du taux de satisfaction du service client.
https://www.usine-digitale.fr/article/s ... d.N2216152

Avatar de l’utilisateur
energy_isere
Modérateur
Modérateur
Messages : 97878
Inscription : 24 avr. 2005, 21:26
Localisation : Les JO de 68, c'était la
Contact :

Re: ChatGPT et autres LLM

Message par energy_isere » 14 juil. 2024, 08:54

Après l’euphorie, les craintes d’une bulle autour de l’intelligence artificielle générative
Les dépenses du secteur de l’intelligence artificielle générative, notamment en capacité de calcul informatique, dépassent largement ses revenus, alertent certains analystes.

Par Alexandre Piquard le 12 juillet lemonde

C’est « la question à 600 milliards de dollars », écrit David Cahn, un associé de Sequoia Partners, un fonds d’investissement historique de la Silicon Valley, spécialisé dans la tech. Selon ses calculs, exposés dans un long billet publié le 20 juin, c’est le montant des revenus qui seraient nécessaires pour rentabiliser les investissements actuels dans le secteur. « La bulle de l’IA [intelligence artificielle] atteint un point de bascule », prévient-il, soulignant un décalage entre les dépenses et les recettes prévues.

Vous pouvez partager un article en cliquant sur les icônes de partage en haut à droite de celui-ci.
La reproduction totale ou partielle d’un article, sans l’autorisation écrite et préalable du Monde, est strictement interdite.
Pour plus d’informations, consultez nos conditions générales de vente.
Pour toute demande d’autorisation, contactez syndication@lemonde.fr.
En tant qu’abonné, vous pouvez offrir jusqu’à cinq articles par mois à l’un de vos proches grâce à la fonctionnalité « Offrir un article ».

https://www.lemonde.fr/economie/article ... _3234.html

Un constat également évoqué dans une note de la banque d’affaires Goldman Sachs, publiée le 25 juin et titrée : « IA générative : trop de dépenses pour trop peu de bénéfices ? » L’IA « générative » – cette famille de logiciels capables de créer des textes, des images ou des sons, popularisée depuis le lancement de ChatGPT, fin 2022 – est une « vraie invention », mais elle fait l’objet de « trop d’optimisme et de hype », y déclare notamment le professeur au Massachusetts Institute of Technology Daron Acemoglu.


Ces notes incitant à la prudence rejoignent une petite musique entendue ces derniers mois chez d’autres observateurs. « Attention à l’euphorie de l’IA », a mis en garde l’éditorialiste du Financial Times Rana Foroohar, alors que l’essayiste spécialiste du numérique Cory Doctorow ou le chroniqueur du Guardian John Naughton prédisaient une « bulle ». Plus récemment, un article publié dans The Economist a estimé que l’IA générative pourrait bien être un cas de « surinvestissement dans les infrastructures, nourri par l’excitation suscitée par une nouvelle technologie », la comparant à la « folie du chemin de fer » à la fin du XIXe siècle ou au « boom des télécoms » à la naissance d’Internet, dans les années 2000. Les dépenses liées à l’IA générative sont des signes que les géants du secteur surestimeraient la « volonté des gens de payer pour des chatbots ou des outils dernier cri », écrivait le magazine économique britannique.

Investissements colossaux

Point de départ de ces craintes, les montants investis dans les infrastructures, principalement les centres de données capables de fournir la capacité de calcul informatique nécessaire pour entraîner, puis faire fonctionner les modèles d’IA générative : 200 milliards de dollars (186 milliards d’euros) en 2024, pour les quatre géants Amazon, Microsoft, Google et Meta (Facebook, Instagram), soit 45 % de plus qu’en 2023 et 180 % par rapport à 2019, selon le cabinet d’analystes Bernstein Research. Alimentées par le prix élevé des processeurs spécifiques à l’IA du leader Nvidia, ces dépenses vont continuer, car de nouvelles générations de ces puces spécialisées vont arriver, note Sequoia Capital. Le secteur prévoit des investissements d’environ 1 000 milliards de dollars sur les prochaines années.

........ La suite est réservée aux abonnés.
https://www.lemonde.fr/economie/article ... _3234.html

Répondre