Los pioneros de las máquinas que “aprenden” ganan el Premio Nobel de Física
El estadounidense John Hopfield y el británico Geoffrey Hinton fueron galardonados con el mayor reconocimiento en el campo de la Física por sentar las bases del desarrollo de la Inteligencia Artificial. Así construyeron los pilares de una tecnología que hoy está revolucionando el mundo, aunque uno de ellos ya ha advertido sus posibles riesgos.
Fernan Fortich
Es probable que en los últimos días o semanas haya interactuado con un computador o una herramienta digital que tiene la capacidad de traducir idiomas instantáneamente, o incluso mantener una conversación decente sobre un tema, como el caso de herramientas como ChatGPT, Claude o Gemini de Google. Estas capacidades, cada vez más sorprendentes de las máquinas, se deben, en gran parte, a sus “redes neuronales artificiales”.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
Es probable que en los últimos días o semanas haya interactuado con un computador o una herramienta digital que tiene la capacidad de traducir idiomas instantáneamente, o incluso mantener una conversación decente sobre un tema, como el caso de herramientas como ChatGPT, Claude o Gemini de Google. Estas capacidades, cada vez más sorprendentes de las máquinas, se deben, en gran parte, a sus “redes neuronales artificiales”.
Aunque no suene como unas palabras muy atractivas, estas redes son la base de la gran mayoría de las herramientas de Inteligencia Artificial (IA) que existen en el mercado, cuya implementación está transformando la ciencia, la economía y nuestras vidas.
En el desarrollo de estas tecnologías han sido fundamentales las investigaciones de dos científicos, el estadounidense John Hopfield y el británico Geoffrey Hinton, quienes fueron galardonados este martes con el Premio Nobel de Física “por descubrimientos e invenciones fundacionales que permiten el aprendizaje automático con redes neuronales artificiales”, según indicó la Real Academia Sueca de las Ciencias.
Las investigaciones de Hopfield, emérito de la Universidad de Princeton, empezaron, de hecho, en el campo de la biología. En particular, el científico estadounidense, quería resolver el enigma de cómo el cerebro tiene la capacidad de computar soluciones a problemas complejos.
“Mi motivación inicial era saber cómo funcionaba el cerebro, los pensamientos y la consciencia, pero esto viró rápidamente a saber cómo un software o un programa podría producir este tipo de resultados, y eso involucraba redes neuronales”, explicó Hopfield, en su entrevista en la Real Academia de Ciencias.
Una de las formas en las que Hopfield se embarcó para resolver este problema fue analizando cómo funciona la memoria humana, en particular la memoria asociativa. Esta última consiste en la forma en que, por ejemplo, una melodía de una canción o un cierto olor puede recordarnos de un episodio de nuestras vidas. Lo más interesante de este mecanismo es cómo el cerebro humano es capaz de utilizar un fragmento de esa experiencia original para traer a la conciencia un recuerdo completo.
La pregunta, en ese punto, era cómo hacer que un modelo computacional hiciera lo mismo. Su solución, publicada en un artículo en 1982, fue denominada las redes de Hopfield que, de manera abreviada, es una de las conceptualizaciones más tempranas de los sistemas neuronales que se basó en las hipótesis del neurocientífico Donald Hebb sobre cómo se produce el aprendizaje cuando las conexiones entre neuronas se refuerzan al trabajar juntas.
En esta red artificial, las neuronas del cerebro se imitan mediante nodos a los que se dan distintos valores, y las sinapsis (proceso mediante el cual las neuronas se comunican entre sí) se simulan mediante conexiones entre los nodos que pueden hacerse más fuertes o débiles, que representan la probabilidad de conexiones activas.
Esta red permitía almacenar imágenes y otra información en forma de patrones y proporcionó un marco para comprender cómo podían surgir cálculos complejos a partir de interacciones neuronales simples. Además, permitía moldear modelos para cierto tipo de funciones, al ser capaz de guardar varias imágenes al mismo tiempo y poder diferenciarlas.
Estos avances fueron retomados por Geoffrey Hinton, quien estudió psicología e inteligencia artificial, y estaba investigando en la década de los años ochenta si las máquinas podían aprender a procesar patrones de forma similar a los humanos. Junto con otros colegas retomó la idea de redes neuronales de Hopfield y la ampliaron para construir nuevas herramientas y aplicaciones.
Una de las formas en las que se mejoraron estos sistemas neuronales fue utilizando la mecánica estadística, la cual describe sistemas compuestos con un gran número de elementos similares, como los miles de moléculas que componen un gas. Debido al gran número de componentes, es imposible determinar la propiedad y estado de cada una, pero el estado macroscópico de estas sustancias puede dar algunas pistas.
De esta manera, hay estados que son más probables que otros, dependiendo de la energía disponible, como lo describió en una ecuación el físico del siglo XIX, Ludwig Boltzmann.
Utilizando esa ecuación, Hinton creó la máquina Boltzmann, que consiste en una capa visible de nodos (neuronas) y otra oculta. La primera capa sirve para captar información, mientras que la segunda procesa la información internamente. A medida que la máquina recibe varias entradas de información, va calculando la probabilidad y reconociendo patrones en informaciones dispersas para “autoenseñarse”.
Estas máquinas pueden aprender, no a través de instrucciones, sino a través de ejemplos. El entrenamiento se hace dándole al sistema información que cambia, a la vez, los valores de las conexiones, lo que hace que estos se repliquen con una mayor probabilidad cuando la máquina entra en funcionamiento.
Con este sistema, Hinton multiplicó las capacidades de las primeras redes neuronales artificiales, lo que permitió que ciertos programas fueran capaces de reconocer, clasificar e incluso generar imágenes tras recibir un conjunto de imágenes de entrenamiento.
En el hito más reciente, en 2012, Hinton, con un grupo de estudiantes, construyó un sistema que podía analizar miles de fotos y enseñarse a sí mismo a identificar objetos comunes como flores y coches con una precisión que no parecía posible. Estos avances lo llevaron a trabajar en Google en el desarrollo de esta tecnología.
Gracias a los avances en el campo realizados por Hopfield e Hinton, hoy en día existen programas que permiten a robots aprender a caminar por su cuenta, o que guían a los coches autónomos a reconocer cosas como señales de tráfico y peatones para tomar decisiones en la marcha.
“Estas redes neuronales artificiales se han utilizado para avanzar en la investigación de temas de física tan diversos como la física de partículas, la ciencia de los materiales y la astrofísica. También han pasado a formar parte de nuestra vida cotidiana, por ejemplo, en el reconocimiento facial y la traducción de idiomas”, explicó Ellen Moons, presidenta del Comité Nobel de Física.
Los reparos de uno de los pioneros
Hinton, quien aseguró estar “atónito al no tener idea” que recibiría el premio Nobel, ha sido unas las voces más críticas del desarrollo de la IA. Luego de trabajar durante una década en Google, renunció para hablar libremente sobre sus preocupaciones sobre los riesgos del desarrollo agresivo de productos basados en la IA generativa.
“Creo que tendrá una enorme influencia. Será comparable a la Revolución Industrial. Pero en vez de superar a la gente en fuerza física, la superará en capacidad intelectual”, indicó Hinton en declaraciones públicas tras recibir el galardón.
De acuerdo con Hinton, los sistemas de IA podrían alcanzar los 100 billones de conexiones (las mismas que el cerebro humano) en solamente cinco años.
Frente a esto, Hinton asegura que tener tecnología que supera a la humana puede traer beneficios en la salud pública y la productividad de la economía, pero también podría tener consecuencias negativas si se salen de control. “Me preocupa que la consecuencia general de esto sean sistemas más inteligentes que nosotros que acaben tomando el control”, agregó.
👩🔬📄 ¿Quieres conocer las últimas noticias sobre ciencia? Te invitamos a verlas en El Espectador. 🧪🧬