Rédaction Science, 8 oct (EFE) - Le nouveau prix Nobel de Physique Geoffrey Hinton a déclaré aujourd'hui à propos de l'intelligence artificielle (IA) : "Nous n'avons pas d'expérience de ce que c'est d'avoir des choses plus intelligentes que nous" et, bien que l'avenir puisse être "merveilleux sous bien des aspects", il a également averti de ses "éventuelles conséquences néfastes".
Hinton (1947, Londres), professeur à l'Université de Toronto (Canada), a remporté aujourd'hui le Prix Nobel de Physique, aux côtés de l'Américain John Hopfield, pour avoir découvert les bases fondamentales qui permettent l'apprentissage automatique avec des réseaux neuronaux artificiels, ce qui a ouvert la voie au développement de certains systèmes d'IA.
Le lauréat a intervenu par téléphone durant la conférence de presse annonçant la distinction et a été interrogé sur l'influence que les réseaux neuronaux et l'apprentissage automatique pourraient avoir à l'avenir.
Le chercheur britannico-canadien a estimé que l'influence serait "énormément" et l'a comparée à "la Révolution Industrielle, mais au lieu de dépasser les gens par la force physique, cela se fera par la capacité intellectuelle".
Hinton a déclaré : "Nous n'avons pas d'expérience de ce que c'est d'avoir des choses plus intelligentes que nous et cela va être merveilleux sous bien des aspects", comme pour les soins de santé ou le fait que les personnes pourront faire le même travail, avec l'aide d'un assistant IA, en beaucoup moins de temps, ce qui se traduira par "d'énormes améliorations de la productivité".
Cependant, il a attiré l'attention sur le fait qu'il faut également s'inquiéter d'"une série de possibles conséquences néfastes". En particulier "la menace que ces choses échappent à tout contrôle".
Prix des Frontières de la Connaissance dans la catégorie Technologies de l'Information et de la Communication en 2017, Hinton a été vice-président et chercheur en ingénierie chez Google, entreprise qu'il a quittée l'année dernière.
Cette sortie de Google, comme l'a publié le désormais Nobel sur ses réseaux sociaux en mai de l'année dernière, "était pour pouvoir parler des dangers de l'IA sans tenir compte de ce que cela" entraîne pour cette entreprise, dont il a indiqué qu'elle "a agi de manière très responsable".
Hinton, dans plusieurs interviews, n'a pas seulement mis en garde contre les dangers de l'IA, mais a aussi affirmé à certaines occasions qu'il regrettait une partie de son travail, comme cela a été rappelé lors de la conférence de presse.
À cet égard, il a expliqué qu'"il existe deux types de regrets", celui pour lequel on se sent "coupable", parce qu'on a fait quelque chose de nouveau qu'on n'aurait pas dû faire, et un second pour quelque chose que l'on referait "dans les mêmes circonstances, mais qui finalement, pourrait ne pas bien se passer".
C'est ce type de regret qu'il a déclaré avoir et il a ajouté que "dans les mêmes circonstances, je referais la même chose", bien qu'il ait réitéré ses préoccupations quant à la possibilité d'atteindre des systèmes "plus intelligents" qui "prendraient éventuellement le contrôle".
L'expert en IA, dont le travail a été fondamental pour disposer d'outils tels que ChatGPT, a déclaré que lorsqu'il veut connaître la réponse à quelque chose, il demande à ChatGPT 4, qu'il utilise beaucoup, bien qu'il ait averti : "Je ne me fie pas totalement à lui car il peut halluciner" (lorsque l'IA générative donne des réponses erronées, imprécises ou dépourvues de sens).
Une des questions typiques posées à un nouveau Nobel est de savoir où il se trouvait quand il a reçu l'appel, ce qui a également été demandé lors de la conférence de presse.
"Je suis dans un hôtel bon marché en Californie, qui n'a pas une bonne connexion à internet ni au téléphone. Aujourd'hui j'allais passer une IRM, mais je vais devoir l'annuler". EFE
(photo) (vidéo)