Resume e infórmame rápido
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Este martes se jugó la última partida del torneo de go que enfrentó al coreano Lee Sedol, uno de los mejores jugadores humanos de nuestros días, contra AlphaGo, uno de los mejores jugadores de nuestros días, pero que no es humano, sino un sistema de inteligencia artificial creado por DeepMind, una compañía adquirida por Google, en 2014.
El torneo incluyó cinco partidas. El primero en ganar tres de ellas se hacía con un premio de un millón de dólares. El dinero quedó en manos del equipo detrás de AlphaGo, así como la competencia en general, que terminó con un marcador de 4-1 a favor de la máquina. (Lea "Duelo entre una máquina de Google y el campe{on mundial de go")
Se estima que en ajedrez el jugador enfrenta un promedio de 20 movimientos posibles por turno. En go, esta medida es de 2.000 para cada jugada. El crecimiento exponencial de posibilidades en una partida de go es tan grande que una máquina, incluso una gran máquina, no alcanza a calcular todos los resultados derivados de cada decisión. A pesar de ser un juego que depende en buena parte de la lógica, el tablero de go requiere de cosas como la reacción y la intuición, hasta cierto punto. Y estas son dos palabras que no suelen asociarse comúnmente a un computador.
Esto ha convertido a este juego de mesa, inventado hace más de 2.500 años en Asia, en mucho más que un pasatiempo para una variedad de compañías que investigan sistemas de inteligencia artificial con el objetivo de crear un sistema que aprenda y que, eventualmente, pueda pensar. Lo que AlphaGo parece haber demostrado es lo primero: el sistema aprendió a jugar go. Y puede que no sólo haya hecho esto, sino que también haya desarrollado un estilo de juego.
Para el segundo juego de la serie, AlphaGo hizo un movimiento que, en principio, fue descrito como un error por los comentadores de la partida. Pero la reacción inicial dio paso a una especie de admiración y, acaso, estupefacción. “Es una jugada muy extraña”, añadió otro. “Es una jugada que nunca había visto en un jugador humano”, le dijo Fan Hui a Cade Metz, de la revista Wired. Hui sabe de qué habla, pues es el campeón europeo del juego y en octubre del año pasado perdió cinco juegos consecutivos con el sistema de Google.
Los comentadores pasaron a narrar cómo Lee Sedol, el gran maestro que se enfrentó a AlphaGo, tuvo que pararse de la silla y salir de la habitación y, al volver a la sala del juego, gastó 15 minutos más de su tiempo permitido (cada jugador tiene dos horas) examinando su próximo movimiento. Sedol perdió esa partida y también la siguiente.
La tecnología detrás de AlphaGo es una combinación de técnicas que, replicando la forma como operan las neuronas en un cerebro humano, permiten que una máquina tome una vasta cantidad de datos y deduzca patrones, tome decisiones y aprenda cosas, como jugar go o qué es un gato.
Para 2012, investigadores de Google y la Universidad de Stanford diseñaron un sistema que, con 1.000 máquinas (y una capacidad de 16 mil procesadores) se dedicó a analizar 10 millones de imágenes sin clasificar, sin información alguna (sin metadatos), tomadas al azar de Youtube.
El resultado: la máquina logró identificar qué era un gato sin que hubiera parámetro alguno que le permitiera identificar cómo lucía o debía lucir este animal. En palabras sencillas, el computador masticó una cantidad enorme de información y se autoenseñó qué era un gato.
Algo similar hace AlphaGo, pues toma una enorme cantidad de datos y patrones y los prueba una y otra vez contra sí mismo (algo que se conoce como aprendizaje por refuerzo o reinforcemente learning). Este entrenamiento, de cierta forma, incrementa la base de datos sobre las jugadas que resultan exitosas, por un lado. Por el otro, produce movimientos que quizá ningún humano haría, pues sólo han sido probados por una máquina. Mediante su constante autoentrenamiento, AlphaGo puede estar produciendo algo así como su propia doctrina de juego.
Una de las cosas que quedan claras con el triunfo de AlphaGo es que el avance en inteligencia artificial va mucho más rápido de lo esperado, pues se calculaba que un gran maestro de go no sería derrotado por un computador en los próximos 15 o 20 años.
Los desarrollos que se usaron para ganar la partida no sólo se verán de cara al futuro, pues algunas de las técnicas que alimentan a AlphaGo ya resuelven por lo menos 15 % de las nuevas preguntas que se le hacen al buscador de Google y otras se entrenan en reconocimiento de imágenes en Facebook para poder identificar más claramente el video, que a su vez es uno de los formatos más importantes en la economía digital del contenido.
Algunas de estas tecnologías son el motor debajo de Watson, un sistema de inteligencia artificial de IBM que ha comenzado a organizar la información en una variedad de instituciones: ayuda en reconocimiento de imágenes diagnósticas de un paciente, así como a clasificar cuáles son las quejas más frecuentes en un call center para así priorizar la atención al usuario. Eventualmente, este sistema (u otros) podrá ayudarle a una empresa de salud a entrever qué persona tiene mayores riesgos de sufrir una condición como diabetes. Esto mejoraría temas como la medicina preventiva, pero también podría alterar el panorama del aseguramiento en salud.
La inversión de grandes compañías en este ramo señala no sólo un deseo de empujar los límites de la tecnología, sino la posibilidad de encontrar nuevas posibilidades de negocio cuando las máquinas mejoren en ciertas tareas repetitivas, tareas que hoy están en manos de una persona. Esto, claramente, también cambiará el futuro del trabajo.
Nadie estima que el triunfo de la máquina de Google señala el fin de la raza humana. Y la clave para resistir las fantasías apocalípticas quizá se encuentre en el cuarto juego entre Sedol y su oponente. Este fue el único que ganó el coreano, gracias a una jugada improbable, el movimiento número 78 en la partida, que fue descrito por los comentadores como “brillante”. AlphaGo necesita unas ciertas semanas para que sus creadores puedan reentrenar el sistema basándose en la estrategia de otro jugador: para que pueda aprender cómo derrotar las fortalezas de un adversario. Esta vulnerabilidad se traduce en que su poder de reacción frente a un instante de genialidad es muy reducido. La máquina puede calcular y reducir las posibilidades de acción para inmovilizar a su contrincante, pero su rango de adaptación sigue siendo primitivo, en el mejor de los casos. El humano gana en este territorio: cambiar ante lo inesperado.
Por Santiago La Rotta
Temas recomendados:
Sin comentarios aún. Suscribete e inicia la conversación