John Hopfield y Geoffrey Hinton, pioneros del aprendizaje automático ganan el Nobel de Física
Los ganadores fueron anunciados por la Real Academia Sueca de Ciencias en Estocolmo. Fuente: Jonathan Nackstrand/AFP vía Getty |
Dos investigadores que desarrollaron técnicas de aprendizaje automático que sustentan el auge actual de la inteligencia artificial (IA) ganaron el Premio Nobel de Física 2024.
08 octubre 2024.- John Hopfield, de la Universidad de Princeton en Nueva Jersey, y Geoffrey Hinton, de la Universidad de Toronto, Canadá, comparten el premio de 11 millones de coronas suecas (un millón de dólares estadounidenses), anunciado por la Real Academia Sueca de Ciencias en Estocolmo el 8 de octubre.
Ambos utilizaron herramientas de la física para idear métodos que impulsan las redes neuronales artificiales , que explotan estructuras en capas inspiradas en el cerebro para aprender conceptos abstractos. Sus descubrimientos “forman los componentes básicos del aprendizaje automático, que puede ayudar a los humanos a tomar decisiones más rápidas y fiables”, dijo la presidenta del comité Nobel, Ellen Moons, física de la Universidad de Karlstad, Suecia, durante el anuncio. “Las redes neuronales artificiales se han utilizado para avanzar en la investigación en temas de física tan diversos como la física de partículas, la ciencia de los materiales y la astrofísica”.
Memoria de la máquina
En 1982, Hopfield, un biólogo teórico con formación en física, ideó una red que describía las conexiones entre neuronas virtuales como fuerzas físicas 1 . Al almacenar patrones como un estado de baja energía de la red, el sistema podía recrear el patrón cuando se le pedía algo similar. Se lo conoció como memoria asociativa, porque la forma en que "recuerda" cosas es similar a la del cerebro cuando intenta recordar una palabra o un concepto basándose en información relacionada.
Hinton, un científico informático, utilizó principios de la física estadística, que describe colectivamente sistemas que tienen demasiadas partes para rastrearlas individualmente, para desarrollar aún más la "red de Hopfield". Al incorporar probabilidades en una versión en capas de la red, creó una herramienta que podía reconocer y clasificar imágenes, o generar nuevos ejemplos del tipo con el que se había entrenado 2 .
Estos procesos se diferenciaban de los métodos computacionales anteriores en que las redes podían aprender de ejemplos, incluso de datos complejos, algo que habría resultado complicado para el software convencional, que dependía de cálculos paso a paso.
Las redes son “modelos extremadamente idealizados que son tan diferentes de las redes neuronales biológicas reales como las manzanas lo son de los planetas”, escribió Hinton en Nature Neuroscience en 2000. Pero demostraron ser útiles y se han desarrollado ampliamente. Las redes neuronales que imitan el aprendizaje humano forman la base de muchas herramientas de inteligencia artificial de última generación, desde grandes modelos de lenguaje (LLM) hasta algoritmos de aprendizaje automático capaces de analizar grandes cantidades de datos, incluido el modelo de predicción de la estructura de las proteínas AlphaFold .
En declaraciones telefónicas durante el anuncio, Hinton dijo que enterarse de que había ganado el Nobel fue “un rayo caído del cielo”. “Estoy estupefacto, no tenía idea de que esto sucedería”, dijo. Añadió que los avances en el aprendizaje automático “tendrán una enorme influencia, será comparable con la revolución industrial. Pero en lugar de superar a las personas en fuerza física, superará a las personas en capacidad intelectual”.
En los últimos años, Hinton se ha convertido en una de las voces más fuertes que piden que se adopten medidas de protección en torno a la IA. Dice que el año pasado se convenció de que la computación digital se había vuelto mejor que el cerebro humano, gracias a su capacidad de compartir el aprendizaje de múltiples copias de un algoritmo, que se ejecutan en paralelo. “Hasta ese momento, había pasado 50 años pensando que si pudiéramos hacerla más parecida al cerebro, sería mejor”, dijo el 31 de mayo, hablando virtualmente en la Cumbre Mundial AI for Good en Ginebra, Suiza. “Me hizo pensar que [estos sistemas] se volverán más inteligentes que nosotros antes de lo que pensaba”.
Motivado por la física
Hinton también ganó el premio Alan Turing en 2018, a veces descrito como el "Nobel de la informática" . Hopfield también ha ganado otros prestigiosos premios de física, incluida la Medalla Dirac.
“La motivación [de Hopfield] era realmente la física, e inventó este modelo de física para comprender ciertas fases de la materia”, dice Karl Jansen, físico del Laboratorio Alemán de Sincrotrón de Electrones (DESY) en Zeuthen, quien describe el trabajo como “revolucionario”. Después de décadas de desarrollos, las redes neuronales se han convertido en una herramienta importante para analizar datos de experimentos de física y para comprender los tipos de transiciones de fase que Hopfield se había propuesto estudiar.
En los últimos cinco años, el Premio Abel y las Medallas Fields también han celebrado la fertilización cruzada entre las matemáticas, la física y la informática , en particular las contribuciones a la física estadística.
La biología también se ha beneficiado de estos modelos artificiales del cerebro. May-Britt Moser, neurocientífica de la Universidad Noruega de Ciencia y Tecnología en Trondheim y ganadora del Premio Nobel de Fisiología o Medicina 2014 , dice que estaba "muy feliz" cuando vio a los ganadores anunciados. Las versiones de los modelos de red de Hopfield han sido útiles para los neurocientíficos, dice, al investigar cómo las neuronas trabajan juntas en la memoria y la navegación. Su modelo, que describe los recuerdos como puntos bajos de una superficie, ayuda a los investigadores a visualizar cómo ciertos pensamientos o ansiedades pueden fijarse y recuperarse en el cerebro, agrega. "Me encanta usar esto como una metáfora para hablar con las personas cuando están estancadas".
Hoy en día, la neurociencia se apoya en teorías de redes y herramientas de aprendizaje automático, derivadas del trabajo de Hopfield y Hinton, para comprender y procesar datos de miles de células simultáneamente, afirma Moser. “Es como un combustible para comprender cosas con las que ni siquiera podíamos soñar cuando empezamos en este campo”.
El uso de herramientas de aprendizaje automático está teniendo un impacto inmensurable en el análisis de datos y en nuestra posible comprensión de cómo los circuitos cerebrales pueden calcular. Pero estos impactos son insignificantes comparados con los muchos impactos que el aprendizaje automático y la inteligencia artificial están teniendo en todos los aspectos de nuestra vida diaria.
Fuente: Nature
Referencias
1. Hopfield, J.J., Proc. Natl Acad. Sci. USA 79, 2554–2558 (1982). Artículo
2. Fahlman, S.E., Hinton, G.E. & Sejnowski, T.J. In Proc. AAAI Conf. Artif. Intell. 3, 109–113 (AAAI, 1983). Available at https://cdn.aaai.org/AAAI/1983/AAAI83-087.pdf
COMENTARIOS