Inteligencia artificial: lo mejor o lo peor que le puede pasar a la humanidad, según Stephen Hawking
El físico dedicó una parte de su tiempo a advertir sobre los riesgos de diseñar esta tecnología sin preceptos éticos claros, que la orienten hacia el beneficio de toda la humanidad.
Redacción Tecnología.
De cierta forma, el futuro de la humanidad fue una de las preocupaciones constantes de Stephen Hawking, el renombrado científico que falleció este martes y cuyo trabaja examina asuntos como la naturaleza de los agujeros negros y el principio del universo. El físico también tuvo un especial interés por el desarrollo de tecnología en el planeta, especialmente en lo que se refiere a inteligencia artificial (IA).
Por ejemplo, en 2015 firmó una carta abierta en la que unos 8.000 científicos (todos nombres de primera línea en el desarrollo de inteligencia artificial) pedían a gobiernos e instituciones que esta tecnología se utilice de forma responsable y para el bien de la humanidad, especialmente para cerrar brechas sociales. “El progreso en estas investigaciones debe apuntar no sólo a desarrollar más capacidades tecnológicas, sino a maximizar los beneficios sociales de la IA”, se leía en el documento suscrito por Hawking y personas como Tom Dietterich, presidente de la Asociación para el Avance de la IA, una de las mayores organizaciones que produce conocimiento en el campo.
Lea también: ¿Quién responde cuando el computador dice no?: inteligencia artificial con parámetros humanos
En una serie de conversaciones a través de Reddit, Hawking siguió martillando un punto común, pero no por eso menos necesario: el desarrollo de inteligencia artificial se debe hacer siguiendo parámetros humanos y con el claro fin de servicio al público, no sólo a las compañías.
Ahora, buscar ventajas y hundir al otro también son comportamientos muy humanos, por lo que, tanto en la carta, como en otras publicaciones el físico británico insistió en introducir supervisión y transparencia en el diseño de la IA: “El verdadero riesgo de la inteligencia artificial (IA) no es la mala fe, sino la competencia. Una IA superinteligente será extremadamente buena en conseguir sus objetivos, y si esos objetivos no se encuentran alineados con los nuestros, estaremos en problemas. Usted probablemente no es un genocida de hormigas que las pisa con mala fe, pero si está a cargo de un proyecto de energía sostenible hidroeléctrica y hay un hormiguero en la zona que necesita inundar, pues esa es una mala noticia para las hormigas. No pongamos a la humanidad en la posición de esas hormigas”.
Uno de los problemas con el desarrollo de inteligencia artificial es que buena parte de la labor se realiza bajo los muros de empresas privadas y el modo exacto de funcionamiento de sus técnicas, la forma como se construyen los algoritmos que gobiernan esta tecnología, es uno de los secretos industriales mejor guardados actualmente. Esto tiene mucho sentido desde el punto de vista de las corporaciones y de guardar la ventaja en un mercado que rápidamente se ha poblado de competidores. Pero no es la mejor opción cuando estos algoritmos intervienen en actividades como la selección de maestros en escuelas públicas o la asignación de una calificación crediticia.
Lea también: Un ABC para entender los aportes de Hawking a la ciencia
El problema evidente acá es que nadie sabe muy bien qué hacer contra un sistema que, en primer lugar, es complejo por naturaleza (lo que dificulta su comunicación pública), y cuyos métodos de funcionamiento son privados, así afecten cuestiones públicas.
Las reflexiones de Hawking van muy de la mano de un movimiento creciente que pide involucrar ética en el diseño de tecnología. No se trata sólo de regulación estatal, sino va en una capa más abajo del proceso: pensar y diseñar con el bien colectivo en mente. De nuevo, este puede no ser un impulso muy humano, pero resulta fundamental para no terminar de ensanchar brechas sociales e inequidades globales mediante el uso de tecnologías que guardan la promesa de simplificar el mundo.
Sobre este punto en particular, el físico argumentaba que “si las máquinas producen todo lo que necesitamos, el resultado de esto dependerá de cómo se distribuyen estos bienes. Todos pueden disfrutar de una vida de ocio lujoso si la riqueza producida por las máquinas es bien distribuida o, también, la mayoría de las personas pueden terminar siendo miserablemente pobres si los dueños de las máquinas logran ir en contra de la distribución equitativa. Hasta ahora, la tendencia se inclina más sobre la segunda opción, que representa la expansión de la inequidad a través de la tecnología”.
Un reporte reciente del Instituto Global McKinsey señala, por ejemplo, que el incremento global en la producción derivada del empleo del motor de vapor fue de 0,3% entre 1850 y 1910. El documento señala que esta cifra fue de 0,4% para la utilización de la robótica entre 1993 y 2007; de 0,6% para las tecnologías de la información entre 1995 y 2005 y puede ser de 0,8% y 1,4% para la automatización del trabajo entre 2015 y 2065.
Lea también: El Apocalipsis según Stephen Hawking
No es una comparación directa con inteligencia artificial, pues es una tendencia que apenas está haciendo su entrada a escala global, pero sirve para orientar un poco la discusión: el uso extensivo de una tecnología, normalmente, suele redefinir el panorama laboral. Ahora, si se habla de una forma para reemplazar trabajos humanos, bueno, pues la historia puede ser un poco más macabra, si se quiere.
Para finalizar, Hawking insiste en el espíritu social que debe tener el desarrollo de la IA: “No hay consenso sobre cuánto tomará construir una IA que se compare con el humano, así que, por favor, no le crean a nadie que dice cuándo sucederá esto. Cuando eventualmente pase, es posible que sea lo mejor que le haya sucedido a la humanidad o lo peor, así que hacerlo bien tiene un enorme valor. Deberíamos cambiar el objetivo de desarrollar una IA pura y sin dirección hacia la creación de una inteligencia benéfica. Puede que nos tome décadas averiguar cómo hacer esto, así que mejor empecemos desde hoy, en vez de la noche antes de que la primera IA realmente fuerte sea encendida”.
De cierta forma, el futuro de la humanidad fue una de las preocupaciones constantes de Stephen Hawking, el renombrado científico que falleció este martes y cuyo trabaja examina asuntos como la naturaleza de los agujeros negros y el principio del universo. El físico también tuvo un especial interés por el desarrollo de tecnología en el planeta, especialmente en lo que se refiere a inteligencia artificial (IA).
Por ejemplo, en 2015 firmó una carta abierta en la que unos 8.000 científicos (todos nombres de primera línea en el desarrollo de inteligencia artificial) pedían a gobiernos e instituciones que esta tecnología se utilice de forma responsable y para el bien de la humanidad, especialmente para cerrar brechas sociales. “El progreso en estas investigaciones debe apuntar no sólo a desarrollar más capacidades tecnológicas, sino a maximizar los beneficios sociales de la IA”, se leía en el documento suscrito por Hawking y personas como Tom Dietterich, presidente de la Asociación para el Avance de la IA, una de las mayores organizaciones que produce conocimiento en el campo.
Lea también: ¿Quién responde cuando el computador dice no?: inteligencia artificial con parámetros humanos
En una serie de conversaciones a través de Reddit, Hawking siguió martillando un punto común, pero no por eso menos necesario: el desarrollo de inteligencia artificial se debe hacer siguiendo parámetros humanos y con el claro fin de servicio al público, no sólo a las compañías.
Ahora, buscar ventajas y hundir al otro también son comportamientos muy humanos, por lo que, tanto en la carta, como en otras publicaciones el físico británico insistió en introducir supervisión y transparencia en el diseño de la IA: “El verdadero riesgo de la inteligencia artificial (IA) no es la mala fe, sino la competencia. Una IA superinteligente será extremadamente buena en conseguir sus objetivos, y si esos objetivos no se encuentran alineados con los nuestros, estaremos en problemas. Usted probablemente no es un genocida de hormigas que las pisa con mala fe, pero si está a cargo de un proyecto de energía sostenible hidroeléctrica y hay un hormiguero en la zona que necesita inundar, pues esa es una mala noticia para las hormigas. No pongamos a la humanidad en la posición de esas hormigas”.
Uno de los problemas con el desarrollo de inteligencia artificial es que buena parte de la labor se realiza bajo los muros de empresas privadas y el modo exacto de funcionamiento de sus técnicas, la forma como se construyen los algoritmos que gobiernan esta tecnología, es uno de los secretos industriales mejor guardados actualmente. Esto tiene mucho sentido desde el punto de vista de las corporaciones y de guardar la ventaja en un mercado que rápidamente se ha poblado de competidores. Pero no es la mejor opción cuando estos algoritmos intervienen en actividades como la selección de maestros en escuelas públicas o la asignación de una calificación crediticia.
Lea también: Un ABC para entender los aportes de Hawking a la ciencia
El problema evidente acá es que nadie sabe muy bien qué hacer contra un sistema que, en primer lugar, es complejo por naturaleza (lo que dificulta su comunicación pública), y cuyos métodos de funcionamiento son privados, así afecten cuestiones públicas.
Las reflexiones de Hawking van muy de la mano de un movimiento creciente que pide involucrar ética en el diseño de tecnología. No se trata sólo de regulación estatal, sino va en una capa más abajo del proceso: pensar y diseñar con el bien colectivo en mente. De nuevo, este puede no ser un impulso muy humano, pero resulta fundamental para no terminar de ensanchar brechas sociales e inequidades globales mediante el uso de tecnologías que guardan la promesa de simplificar el mundo.
Sobre este punto en particular, el físico argumentaba que “si las máquinas producen todo lo que necesitamos, el resultado de esto dependerá de cómo se distribuyen estos bienes. Todos pueden disfrutar de una vida de ocio lujoso si la riqueza producida por las máquinas es bien distribuida o, también, la mayoría de las personas pueden terminar siendo miserablemente pobres si los dueños de las máquinas logran ir en contra de la distribución equitativa. Hasta ahora, la tendencia se inclina más sobre la segunda opción, que representa la expansión de la inequidad a través de la tecnología”.
Un reporte reciente del Instituto Global McKinsey señala, por ejemplo, que el incremento global en la producción derivada del empleo del motor de vapor fue de 0,3% entre 1850 y 1910. El documento señala que esta cifra fue de 0,4% para la utilización de la robótica entre 1993 y 2007; de 0,6% para las tecnologías de la información entre 1995 y 2005 y puede ser de 0,8% y 1,4% para la automatización del trabajo entre 2015 y 2065.
Lea también: El Apocalipsis según Stephen Hawking
No es una comparación directa con inteligencia artificial, pues es una tendencia que apenas está haciendo su entrada a escala global, pero sirve para orientar un poco la discusión: el uso extensivo de una tecnología, normalmente, suele redefinir el panorama laboral. Ahora, si se habla de una forma para reemplazar trabajos humanos, bueno, pues la historia puede ser un poco más macabra, si se quiere.
Para finalizar, Hawking insiste en el espíritu social que debe tener el desarrollo de la IA: “No hay consenso sobre cuánto tomará construir una IA que se compare con el humano, así que, por favor, no le crean a nadie que dice cuándo sucederá esto. Cuando eventualmente pase, es posible que sea lo mejor que le haya sucedido a la humanidad o lo peor, así que hacerlo bien tiene un enorme valor. Deberíamos cambiar el objetivo de desarrollar una IA pura y sin dirección hacia la creación de una inteligencia benéfica. Puede que nos tome décadas averiguar cómo hacer esto, así que mejor empecemos desde hoy, en vez de la noche antes de que la primera IA realmente fuerte sea encendida”.