
Hopfield est né en 1933 à Chicago et poursuit sa recherche à la Université de Princeton, États-Unis. Hinton est né en 1947 à Londres et est chercheur à l'Université de Toronto, Canada.
En présentant les lauréats, le comité Nobel a souligné que « bien que les ordinateurs ne puissent pas penser, les machines peuvent maintenant imiter des fonctions comme la mémoire et l'apprentissage. Les récipiendaires de cette année en physique ont contribué à rendre cela possible. »
En utilisant des principes de la physique, les deux scientifiques ont réalisé des avancées clés qui ont jeté les bases des réseaux de neurones artificiels, une structure computationnelle inspirée du fonctionnement du cerveau. Cette découverte a non seulement changé la manière dont les machines traitent et stockent l'information, mais a également été essentielle au développement de l'intelligence artificielle (IA) moderne, notamment dans le domaine de l'apprentissage profond.
Comprendre le cerveau pour créer des réseaux de neurones artificiels

Le travail de Hopfield, de l'Université de Princeton, et Hinton, de l'Université de Toronto, est profondément lié aux concepts de la physique et de la biologie. Bien que nous associions aujourd'hui l'apprentissage automatique aux ordinateurs et aux algorithmes, les premiers pas vers la création de réseaux de neurones artificiels sont nés du désir de comprendre comment fonctionne le cerveau humain et comment il traite l'information. Hopfield, un physicien théorique, a joué un rôle décisif en appliquant des concepts physiques à la neuroscience pour expliquer comment le cerveau peut stocker et récupérer de l'information.
En 1982, il a développé le réseau de Hopfield, un modèle de réseau de neurones artificiels capable de stocker des motifs d'information et, par la suite, de les récupérer même lorsqu'ils sont incomplets ou altérés. Ce concept, connu sous le nom de mémoire associative, imite la capacité humaine de se souvenir, par exemple, d'un mot qui est sur le bout de la langue, en traitant d'autres mots proches dans leur signification jusqu'à trouver le bon.
Hopfield a appliqué des connaissances de physique, telles que les principes régissant les systèmes de spin atomique, pour créer son réseau. En physique, le spin est une propriété des particules subatomiques qui génère un champ magnétique. Inspiré par ce comportement, Hopfield a conçu un système dans lequel les neurones, ou nœuds, étaient connectés entre eux avec différentes intensités, de manière similaire à la façon dont les atomes d'un matériau magnétique influencent les directions de leurs spins voisins.
Cette approche a permis au réseau d'associer et de reconstruire des motifs de manière efficace, une idée révolutionnaire qui a marqué le début d'une nouvelle ère dans la calculabilité neuronale.

Le réseau de Hopfield et la mémoire associative
Le réseau de Hopfield représente une avancée significative car il est basé sur un système capable de stocker plusieurs motifs simultanément. Lorsqu'on lui présente un motif incomplet, le réseau peut trouver celui le plus proche parmi ceux qu'il a déjà mémorisés et reconstruire celui-ci. Ce processus ressemble à faire rouler une boule sur un paysage de sommets et de vallées : si la boule est laissée tomber près d'une vallée (motif), elle roulera jusqu'au fond, où elle trouvera le motif le plus proche.
En termes techniques, le réseau est programmé avec une image en noir et blanc en assignant des valeurs binaires à chaque nœud (0 pour noir, 1 pour blanc). Ensuite, une formule d'énergie est utilisée pour ajuster les connexions entre les nœuds, ce qui permet au réseau de réduire l'énergie totale du système et, éventuellement, d'atteindre un état stable où le motif original a été recréé. Cette approche était non seulement nouvelle, mais a également prouvé être scalable : le réseau pouvait stocker et différencier plusieurs images, ouvrant la voie à une forme de stockage distribué d'informations qui inspirerait davantage les avancées en intelligence artificielle.
Hinton et la machine de Boltzmann

Tandis que Hopfield développait son réseau, Geoffrey Hinton explorait comment les machines pouvaient apprendre à traiter des motifs d'une manière similaire aux humains, trouvant leurs propres catégories sans besoin d'instructions explicites.
Hinton a été pionnier de la machine de Boltzmann, un type de réseau neuronal qui utilise des principes de la physique statistique pour découvrir des structures dans de grandes quantités de données.
La physique statistique s'occupe de systèmes formés par de nombreux éléments similaires, comme les molécules d'un gaz, dont les états individuels sont imprévisibles, mais qui peuvent être analysés collectivement pour déterminer des propriétés telles que la pression et la température. Hinton a exploité ces concepts pour concevoir une machine capable d'analyser la probabilité qu'un ensemble spécifique de connexions dans un réseau se produise, basé sur l'énergie du réseau dans son ensemble. Inspiré par l'équation de Ludwig Boltzmann, Hinton a utilisé cette formule pour calculer la probabilité de différentes configurations au sein du réseau.
La machine de Boltzmann a deux types de nœuds : visibles et cachés. Les premiers reçoivent l'information initiale, tandis que les nœuds cachés génèrent des motifs à partir de cette information, ajustant les connexions du réseau pour que les exemples entraînés aient la plus grande probabilité possible de se produire. Ainsi, la machine apprend par les exemples, non par des instructions, et peut reconnaître des motifs même lorsque l'information est nouvelle, mais ressemble aux exemples précédemment vus.
Les bases de l'apprentissage profond de l'Intelligence Artificielle

Le travail de Hopfield et Hinton n'a pas seulement revitalisé l'intérêt pour les réseaux de neurones, mais a également ouvert la voie au développement de l'apprentissage profond, un domaine de l'IA qui aujourd'hui propulse la plupart des innovations technologiques, allant des assistants virtuels aux véhicules autonomes.
Les réseaux de neurones profonds, qui sont des modèles avec de nombreuses couches de neurones, doivent leur existence à ces avancées précoces dans les réseaux de neurones artificiels.
De nos jours, les réseaux de neurones sont des outils fondamentaux pour analyser de grandes quantités de données, identifier des motifs complexes dans les images et les sons, et améliorer la prise de décisions dans des secteurs allant de la médecine à l'astrophysique.
Grâce aux découvertes de Hopfield et Hinton, l'IA continue d'évoluer à un rythme fulgurant. Dans le domaine de la biologie moléculaire, par exemple, les réseaux de neurones sont utilisés pour prévoir la structure des protéines, ce qui a des implications directes dans le développement de médicaments. De plus, dans le domaine de l'énergie renouvelable, les réseaux sont utilisés pour concevoir des matériaux avec de meilleures propriétés pour des cellules solaires plus efficaces.