Ça dépend ce qu'on appelle économe.
Pour moi, 100 mW c'est déjà 20 à 100 fois trop, pour les applications courantes (reconnaissance vocale, faciale, ...).
Modérateurs : Rod, Modérateurs
je ne sais même pas à quel post tu fais allusion .. c'est une illustration de comment ta manière de débattre , toujours allusive et par sous-entendus, rend un vrai échange difficile. Par ailleurs tu affirmes en permanence des choses qui sont en fait très contestables, simplement en adoptant un ton d'assurance qui vise à prévenir toute contestation. Par exemple quand tu dis:
assimiler "motivation" et "apprentissage par punition/récompense" me parait tout à fait contestable : pour rester dans l'humain, le nourrisson à sa naissance est tres motivé pour chercher le sein de sa mère sans y avoir été vraiment entrainé, mais si plus tard on l'oblige à prendre des cours de piano alors qu'il aimerait jouer au foot, il pourra avoir fait des progrès techniques réels par la punition/récompense sans jamais avoir été motivé ! la motivation c'est plutot ce qui te pousse à t'intéresser à un truc sans jamais y avoir été entrainé précisément, c'est donc ce qu'un ordinateur ne fait jamais, puisqu'aucun ordinateur n'a jamais demandé qu'on lui apprenne à faire quoi que ce soit !!Quand je parle d'une motivation, je parle du mécanisme par lequel les vertébrés depuis la lamproie contrôlent leur prise de décision, c'est-à-dire par un système de punition/récompense impliquant les ganglions de la base chez l'humain, dont le modèle théorique est l'entrainement par renforcement, utilisé par exemple chez alphazero (voir aussi Agent57 dans les liens de silenus)
Merci pour le hint: je tire de nos échanges l'idée, ou plutôt l'importance de l'idée, selon laquelle la première chose à expliquer à un débutant est l'écart du vocabulaire spécialisé au vocabulaire de tout les jours. Je crois que c'est une idée importante, d'ou le merci.
https://www.sciencedirect.com/science/a ... 8811000468LeLama a écrit :Je pense pour ma part que la prise de decision est gérée principalement par des representations esthetiques, des sensations. Les recompenses ne sont que secondaires.
PAs moi qui est écrit ça. Comme je l'ai dit c'est complexe. La notion même de "prise de décision" recouvre des choses si différentes que c'est clairement une généralisation abusive de toute façon.Jeudii a écrit : ↑16 juil. 2020, 16:00https://www.sciencedirect.com/science/a ... 8811000468nemo a écrit :Je pense pour ma part que la prise de decision est gérée principalement par des representations esthetiques, des sensations. Les recompenses ne sont que secondaires.
http://www.ccnss.org/ccn_2014/materials ... o_doya.pdf
C'est corrigé, dsl.nemo a écrit : ↑16 juil. 2020, 17:03PAs moi qui est écrit ça.Jeudii a écrit : ↑16 juil. 2020, 16:00https://www.sciencedirect.com/science/a ... 8811000468nemo a écrit :Je pense pour ma part que la prise de decision est gérée principalement par des representations esthetiques, des sensations. Les recompenses ne sont que secondaires.
http://www.ccnss.org/ccn_2014/materials ... o_doya.pdf
J'ai exagéré les choses. Oui, les avancées sont réelles, c'est difficile de le nier, et ça a ouvert beaucoup de portes. Néanmoins, il y a des critiques sérieuses sur l'idée que le deep learning à lui seul pourrait franchir cette étape d'une intelligence artificielle générale, par opposition aux IA qui fonctionnent dans des contextes précis. Je ne t'avais pas répondu, du coup je te donne deux noms:Jeudii a écrit : ↑10 juil. 2020, 01:26J'ai déjà abordé ce point sur le plan technique en réponse à LeLama. Par curiosité, peux-tu donner quelques noms histoire que je regarde qui répand ce genre de bêtises? Quand même tu n'aurais pas l'expertise toi-même, tu penses que les trois fondateurs du deep learning ont eu le prix Turing pour des algorithmes 'pas fondamentalement différent' de ce qui se faisait avant? Cela ne te semble pas légèrement non crédible, comme histoire?tita a écrit :Mais beaucoup qui sont dans le domaine disent que les bases théoriques datent de dizaines d'années et qu'il n'y a pas de nouveaux algorithmes fondamentalement différents.
Merci pour le retour. Effectivement la critique de Marcus n'a rien à voir avec une charge anti deep learning, comme il dit lui-même dans un de tes liens:tita a écrit : ↑16 juil. 2020, 22:03J'ai exagéré les choses. Oui, les avancées sont réelles, c'est difficile de le nier, et ça a ouvert beaucoup de portes.Jeudii a écrit : ↑10 juil. 2020, 01:26J'ai déjà abordé ce point sur le plan technique en réponse à LeLama. Par curiosité, peux-tu donner quelques noms histoire que je regarde qui répand ce genre de bêtises? Quand même tu n'aurais pas l'expertise toi-même, tu penses que les trois fondateurs du deep learning ont eu le prix Turing pour des algorithmes 'pas fondamentalement différent' de ce qui se faisait avant? Cela ne te semble pas légèrement non crédible, comme histoire?tita a écrit :Mais beaucoup qui sont dans le domaine disent que les bases théoriques datent de dizaines d'années et qu'il n'y a pas de nouveaux algorithmes fondamentalement différents.
On peut pas dire que ce soit spécialement critique ni spécialement original -et il cite lui-même plein de travaux qui vont dans ce sens.Marcus a écrit :I’ve compiled a list of fourteen commonly-asked queries. (...)Dietterich, mentioned above, made both of these points, writing:QA2 a écrit :Marcus wasn’t very nice to deep learning. He should have said more nice things about all of its vast accomplishments. And he minimizes others.On the first part of that, true, I could have said more positive things. But it’s not like I didn’t say any. Or even like I forgot to mention Dietterich’s best example; I mentioned it on the first page:Dietterich a écrit :Disappointing article by @GaryMarcus. He barely addresses the accomplishments of deep learning (eg NL translation) and minimizes others (eg ImageNet with 1000 categories is small (“very finite”)Marcus a écrit : Deep learning has since yielded numerous state of the art results, in domains such as speech recognition, image recognition, and language translation and plays a role in a wide swath of current AI applications.Of course it is useful; I never said otherwise, only that (a) in its current supervised form, deep learning might be approaching its limits and (b) that those limits would stop short from full artificial general intelligence — unless, maybe, we started incorporating a bunch of other stuff like symbol-manipulation and innateness.QA3 a écrit :3. Marcus says deep learning is useless, but it’s great for many things
Par contre il devrait aussi mentionner qu'il y a des avancées sérieuses en cognition 100% rdn, comme les autoencoders ou le raisonnement visuel en mode Film (à sa décharge le dernier est probablement en partie postérieur à ses écrits).Marcus a écrit :Definitely true; the literature review was incomplete. One favorite among the papers I failed to cite is Shanahan’s Deep Symbolic Reinforcement (Garnelo, Arulkumaran, & Shanahan, 2016); I also can’t believe I forgot Richardson and Domingos’ (2006) Markov Logic Networks. I also wish I had cited Evans and Edward Grefenstette (2017), a great paper from DeepMind. And Smolensky’s tensor calculus work (Smolensky et al., 2016). And work on inductive programming in various forms (Gulwani et al., 2015) and probabilistic programming, too, by Noah Goodman (Goodman, Mansinghka, Roy, Bonawitz, & Tenenbaum, 2012) All seek to bring rules and networks close to together.QA11 a écrit :11. Marcus failed to cite X.
And older stuff by pioneers like Jordan Pollack (Smolensky et al., 2016). And Forbus and Gentner’s (Falkenhainer, Forbus, & Gentner, 1989) and Hofstadter and Mitchell’s (1994) work on analogy; and many others. I am sure there is a lot more I could and should have cited.
Overall, I tried to be representative rather than fully comprehensive, but I still could have done better. #chagrin.
Je n'ai aucun problème avec l'idée que la meilleure approche pour une AGI serait un modèle hybride plutôt qu'une approche 100% deep learning, c'est une possibilité, et on peut même considérer alphazero comme une démonstration de l'utilité des modèles hybrides (Silver y voit plutôt une victoire pour la rétropropagation, mais le fait est qu'il y a au moins deux éléments non deep learning: le minimax et l'implémentation des règles). Sauf qu'alphazero n'est pas construit avec les briques que Marcus recommande. C'est le coeur du problème en fait: si ses idées étaient si bonnes, comment se fait-il qu'il n'arrive pas à les utiliser pour surpasser ce qui se fait en mode pur rdn? Dans le même temps les approches purement rdn continuent de produire des merveilles, comme celle là: https://arxiv.org/pdf/1709.07871.pdftita a écrit : Néanmoins, il y a des critiques sérieuses sur l'idée que le deep learning à lui seul pourrait franchir cette étape d'une intelligence artificielle générale, par opposition aux IA qui fonctionnent dans des contextes précis.
Je regarderais plus tard.QA3 a écrit :Melanie Mitchell, qui explique de façon très intéressante les limitations de ce qu'on fait aujourd'hui:
https://www.youtube.com/watch?v=4QBvSVYotVc
Presque tout ce qu'elle raconte est plutôt concensuel, quoique présenté d'une façon originale et sympathique. Elle même s'amuse visiblement quand elle présente ses graphiques (fait à la main en unités arbitraires), des citations choisies de grand titre de magazines, ou qu'elle présente une citation avertissant contre l'enthousiasme actuel avant de révéler la date de la citation (1983). Au départ je tiquais un peu sur le choix d'illustrer ses propos avec des unités arbitraires plutôt que des marqueurs objectifs (nombre de chercheur, $ investis en recherche en IA, nombre de citation par mot-clef dans quelques banques de référence), mais c'est bon enfant et pas vraiment le coeur du sujet, qui vient dans les dernières minutes de la présentation: une liste de 4 fallacies qu'elle voit comme des causes de sous-estimation de la difficulté d'arriver à une AGI. C'est intéressant, mais le fait que la communauté n'est pas spécialement optimiste qu'on aura une AGI bientôt.tita a écrit : ↑16 juil. 2020, 22:03Melanie Mitchell, qui explique de façon très intéressante les limitations de ce qu'on fait aujourd'hui:
https://www.youtube.com/watch?v=4QBvSVYotVc
ravi d'apprendre que c'est consensuel, vois tu une différence fondamentale entre ses "fallacies" et les points que j'ai soulevés juste au-dessus, qui n'avaient pas l'air de te paraitre si "consensuels" quand c'est moi qui les ai fait remarquer ?Jeudii a écrit : ↑17 juil. 2020, 06:31Presque tout ce qu'elle raconte est plutôt concensuel, quoique présenté d'une façon originale et sympathique... le coeur du sujet, qui vient dans les dernières minutes de la présentation: une liste de 4 fallacies qu'elle voit comme des causes de sous-estimation de la difficulté d'arriver à une AGI. C'est intéressant, mais le fait que la communauté n'est pas spécialement optimiste qu'on aura une AGI bientôt.
+1