La inteligencia artificial no comenzó el día en que los estudiantes del mundo se sintieron muy avispados al pedir a ChatGPT que les hiciera la tarea. Tampoco el día en que los medios masivos reportaron que eso era posible. Hace casi 80 años, Warren McCulloch, un médico especializado en el sistema nervioso recién contratado como profesor de psiquiatría de la Universidad de Illinois, en Chicago, acogió en su casa a un matemático autodidacta sin hogar, Walter Pitts. Cada día, después de su trabajo en la universidad, McCulloch se reunía con Pitts para discutir los trabajos de Gottfried Leibniz, Thomas Hobbes, René Descartes y otros pensadores que, desde el siglo XVII, habían explorado la posibilidad de que todo pensamiento racional pudiera hacerse tan sistemático como el álgebra o la geometría. Esa colaboración llevó a la publicación del trabajo en el que propusieron que el sistema nervioso funciona de forma similar a un computador digital, procesando información a través de una red de neuronas interconectadas. Era el primer modelo matemático de una red neuronal.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
La inteligencia artificial no comenzó el día en que los estudiantes del mundo se sintieron muy avispados al pedir a ChatGPT que les hiciera la tarea. Tampoco el día en que los medios masivos reportaron que eso era posible. Hace casi 80 años, Warren McCulloch, un médico especializado en el sistema nervioso recién contratado como profesor de psiquiatría de la Universidad de Illinois, en Chicago, acogió en su casa a un matemático autodidacta sin hogar, Walter Pitts. Cada día, después de su trabajo en la universidad, McCulloch se reunía con Pitts para discutir los trabajos de Gottfried Leibniz, Thomas Hobbes, René Descartes y otros pensadores que, desde el siglo XVII, habían explorado la posibilidad de que todo pensamiento racional pudiera hacerse tan sistemático como el álgebra o la geometría. Esa colaboración llevó a la publicación del trabajo en el que propusieron que el sistema nervioso funciona de forma similar a un computador digital, procesando información a través de una red de neuronas interconectadas. Era el primer modelo matemático de una red neuronal.
Durante las últimas décadas hemos experimentado una revolución en la forma en que funciona la computación. Antes el programador definía la tarea que debía realizar el computador, escribiendo una secuencia de instrucciones, un algoritmo. Ahora, para algunas tareas, no hace falta escribir esta secuencia sino recolectar datos, muchos datos. Y es a partir de los datos que el programa de computador “aprende” los requisitos especificados y desarrolla su algoritmo. Por ejemplo, antes un programa traductor entre dos idiomas realizaba su tarea reconociendo una palabra en una colección de diccionarios. Ahora, encuentra un patrón en el uso de las palabras en los dos idiomas a partir de la información en cientos de miles de traducciones anteriores. Esto, que puede parecer una idea abstracta, ya hace parte de la vida cotidiana, desde los sistemas de reconocimiento facial para desbloquear el celular hasta la personalización de los anuncios en las redes sociales, la optimización de tratamientos médicos, la identificación de transacciones bancarias fraudulentas o la inversión de sus ahorros. Detrás de muchas de esas operaciones cruciales, se esconden redes neuronales artificiales.
Hacia 1949, el psicólogo canadiense Donald Hebb describió la teoría según la cual el aprendizaje implica que cada experiencia que vive una persona se fija en la red de neuronas. Cada vez que se repite una determinada acción o pensamiento, la conexión entre neuronas se refuerza, cambiando el cerebro y reforzando el aprendizaje. Un individuo está, en esencia, entrenando su cerebro. Cuantas más experiencias nuevas y estimulantes tenga y practique una persona, más conexiones nuevas se crearán en su cerebro. En teoría, una red neuronal artificial podría “entrenarse” de la misma manera. Pero tuvieron que pasar décadas para que los investigadores lograran descifrar la forma de enseñarle a una red neuronal artificial cómo aprender de forma eficiente.
El Premio Nobel de Física de este año, entregado hace apenas unos días, premia a dos investigadores que utilizaron herramientas de la física para construir métodos fundamentales para la revolución en la computación que estamos experimentando. John Hopfield, quien dejó la física por la investigación en química, pero usó los principios de la física para allanar la senda a través de la cual aprenden las redes neuronales artificiales. Y Geoffrey Hinton, quien en esa helada mañana de invierno en Toronto comenzó su seminario recordándonos que no podemos simplemente decirle a una máquina que haga lo que no sabemos cómo hace nuestro cerebro. Hoy no cesa de advertirnos que las máquinas no solamente tienen algoritmos más eficientes, sino que pueden compartir conocimientos de forma mucho más eficaz que nuestras caprichosas inteligencias biológicas.