ah bon ,
On se demande alors comment qu' on fait pour capter la radio par onde hertzienne et fut un temps la TV.

Modérateurs : Rod, Modérateurs
ah bon ,
Il ne dit pas qu’on ne peut pas les capter, il dit qu’on les capte et qu’ensuite ça te contamine avec des ions positifs et tes enfants deviennent trans.energy_isere a écrit : ↑26 sept. 2024, 20:06ah bon ,
On se demande alors comment qu' on fait pour capter la radio par onde hertzienne et fut un temps la TV.![]()
https://www.lebigdata.fr/nous-avons-per ... en-urgenceC’est la panique ! Un groupe de spécialistes, composé des deux pères fondateurs de l’intelligence artificielle, ont eu une réunion d’urgence pour parler des risques catastrophiques de l’IA.
26 septembre 2024
Ce n’est pas la première fois que l’on entend les spécialistes parler des dangers de l’intelligence artificielle. Mais cette fois, ce sont les pères de l’intelligence artificielle qui s’inquiètent sur les « risques catastrophiques » de cette technologie. Pour éviter que l’IA échappe au contrôle humain, ces scientifiques proposent un cadre réglementaire, doté de modèles inscrits sur un registre.
Les pères de l’IA pensent que l’IA pourrait dépasser l’intelligence humaine ?
Les spécialistes du domaine de l’intelligence artificielle ont des avis différents concernant les risques inhérents à cette technologie. Si certains pensent que l’IA n’est qu’un outil relativement inoffensif, qui n’a que pour mission d’assister les humains, d’autres craignent qu’elle puisse devenir hors du contrôle humain.
Parmi les personnes qui s’inquiètent des conséquences négatives de cette technologie, on peut citer Geoffrey Hinton et Yoshua Bengio. Ces deux spécialistes sont considérés comme des pères fondateurs de l’intelligence artificielle.
Rappelons qu’ils ont reçu le prix Turing en 2018 pour leurs actions sur l’apprentissage profond, avec le français Yann LeCun. Il n’y a pas si longtemps, ces deux hommes participaient à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l’IA) qui s’est déroulée à Venise. Notons que c’est l’un des grands événements qui réunit les différents spécialistes du secteur.
Ce groupe de spécialistes a publié un communiqué qui parle surtout des risques relatifs à l’arrivée d’une IA capable de surpasser l’intelligence humaine. Cela pourrait arriver immédiatement, ou au plus tard d’ici quelques décennies.
Un cadre réglementaire proposant trois solutions
Le communiqué signé aussi par Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, propose trois propositions qui permettent d’éviter les scénarios catastrophiques.
Dans un premier temps, ces spécialistes de l’IA suggèrent d’enregistrer les modèles d’IA. La communauté internationale devrait mettre en place des accords et institutions permettant d’inscrire ces modèles sur un registre et de communiquer tout incident.
Ensuite, tous les développeurs d’IA doivent être en mesure de démontrer la sûreté de leurs modèles si jamais leurs aptitudes dépassent certains seuils. Enfin, il faudra entreprendre une recherche mondiale indépendante sur la sécurité de l’IA. Cette étude doit permettre d’examiner la validité des allégations en matière de sécurité formulées par les développeurs.
Notons néanmoins que le communiqué ne précise pas ce qui pourrait constituer un risque ou encore quels seuils doit être mis en place.
Rappelons que ce n’est pas la première fois que Geoffrey Hinton parle de ce sujet. En 2003, il a démissionné de chez Google pour pouvoir partager librement ses appréhensions sur le développement de l’intelligence artificielle.
Et il y aurait 40 ans du temps du ZX81 tu te serais moqué de quelqu'un disant qu'un jour les ordinateurs pourraient envoyer des virus à d'autres ordinateurs ?
Là tu anthropomorphise l'IA !energy_isere a écrit : ↑28 sept. 2024, 22:14Et il y aurait 40 ans du temps du ZX81 tu te serais moqué de quelqu'un disant qu'un jour les ordinateurs pourraient envoyer des virus à d'autres ordinateurs ?
Ben la pense à dans 25 ans, qu'est ce qui te dit qu'une IA ne pourrait comprendre qu'elle est vulnérable à un on/off humain ou un on/off accidentel par tremblement de terre / incendie: tsunami ...... et donc qu'elle trouve une faille quelconque pour se délocaliser ailleurs de l'ordinateur ou elle est installée, en prévention d'un on/off ? Ou bien tout simplement en corrompant un humain qui travaille sur la machine.
Impressionnant/dommage que ce ne soit pas abordé sous l’angle « Les mythes moderne de l’apocalypse de St-Jean à l’apocalypse de St-Yud en passant par les incendies de véhicules électriques: une analyse basée sur l’inconfortable réalité des faits testables «.Silenius a écrit : ↑28 sept. 2024, 22:10un court metrage produit par IA generative (par une seule personne), le progres en a peine 6 mois est incroyable : The paperclip maximizer https://www.youtube.com/watch?v=_XtS_4PzEyk
ah bon, pourquoi il a fallu une personne , quand même ?
Je suis effectivement réellement impressionné. Et je me mets à la place des personnes travaillant en studio d'animation par exemple, ou les effets spéciaux.