Message
par GillesH38 » 29 avr. 2023, 08:16
le système ne cherche rien à faire, il est entrainé à faire des phrases qui suivent d'autres phrases. Si il a vu des phrases incohérentes suivre d'autres phrases incohérentes, il pourra les générer en réponse à ces phrases incohérentes. Mais dans le principe même de ce qu'il dit, il ne comprend rien, même si la justesse de ces propos peut le laisser croire. A coté de tests réussis il y a des tests qui montrent qu'il est impossible qu'il "comprenne" vraiment ce qu'il dit, sinon il n'aurait pas pu échouer de cette manière.
Par exemple chatGPT3.5 échoue a sortir la liste des initiales des mots de sa réponse précédente , il commence bien puis il se plante. C'est impossible qu'un ordinateur échoue a cette tache si simple si il avait "conscience" de ce qu'il faisait. Evidemment c'est très simple d'écrire un bout de programme python en quelques lignes qui le fasse correctement, mais il ne le fait pas, il n'est pas entrainé à ça. Ou il est très mauvais aux chiffres et aux lettres (deviner un anagramme ou imaginer une opération qui fasse un nombre donné à partir de nombre de bases). il n'y a aucune raison qu'il échoue à ça si il est ne serait ce qu'un peu "intelligent". Je ne sais pas si Bing GPT 4 y arrive mieux, mais même si c'est le cas, c'est juste qu'on a amélioré ses performances, mais ça reste le même principe de fonctionnent et ce n'est pas ça qui a pu le rendre "intelligent"; c'est juste une rustine sur un défaut .
Zan, zendegi, azadi. Il parait que " je propage la haine du Hamas", mais aussi des juifs et d'Israël.