¿Quién responde cuando el computador dice no?: inteligencia artificial con parámetros humanos
Esta tecnología debe contar con parámetros éticos y responsabilidades claras porque su mal uso puede generar serias afectaciones sociales a escala global.
Santiago La Rotta / @troskiller
En 1961, Stanley Milgram diseñó una serie de experimentos para, de cierta forma, medir la respuesta de la gente a las figuras de autoridad. La cosa era así: los voluntarios debían administrar pequeños electrochoques a una persona cada vez que cometiera errores. Esta última era un actor contratado por los investigadores y realmente no recibía corriente. Contra todo pronóstico, los voluntarios llegaron a administrar lo que ellos creían eran niveles peligrosos de corriente, sólo porque los científicos detrás del experimento lo indicaron.
“Nadie habría aceptado administrar una carga peligrosa de entrada, pero si los incrementos son graduales, bueno, eso parecía funcionar para los voluntarios del estudio de Milgram. Cuando las personas dudaban, el científico les decía, muy amablemente: ‘Tranquilos, es parte del experimento’. La gente seguía subiendo el nivel de corriente simulado”, dice la doctora Paula Boddington, investigadora sénior de la Escuela de Ciencias de la Computación de la Universidad de Oxford. Y añade: “Puede que con la tecnología pase algo similar: vamos cambiando y perdiendo cosas en el camino, pieza por pieza, entonces nos acostumbramos y seguimos y lo aceptamos porque hay hombres de ciencia que están diseñando el mundo del futuro. Hay que debatir esta idea”.
Lea también: Los peligros de pensar que la tecnología hace milagros
En el discurso de la doctora Boddington, la inteligencia artificial es una de las tecnologías que más pueden alterar el funcionamiento de la sociedad y por ello necesita un debate público para resolver preguntas de fondo, que sintetiza al decir: “¿Quién responde cuando la máquina dice que no?”.
Esta investigadora se refiere al rol creciente que técnicas como el aprendizaje de máquinas y redes neuronales (dos componentes de lo que comúnmente se conoce como inteligencia artificial o IA) están teniendo en la selección de maestros para sistemas públicos de educación o en la calificación crediticia de los usuarios de un banco. El concepto que más repite Boddington es el de responsabilidad: “Al final, hay personas detrás de estas decisiones. No es un asunto que deba quedar en manos de compañías o corporaciones. Hay responsabilidades individuales porque hay afectaciones individuales o sobre porciones enteras de la sociedad”.
¿Se ha preguntado qué pasará cuando un algoritmo decida que no es elegible para un plan de salud prepagada o para cierta cobertura de seguro médico? ¿Cómo se apela la decisión que toma una máquina, que actúa bajo parámetros que suelen ser secretos o al menos no públicos? La voz de Boddington se suma a la de un grupo nutrido, y creciente, de investigadores, empresarios y (más escasos) diseñadores de políticas públicas que piden pautas y estándares humanos para diseñar una tecnología que puede tener profundas implicaciones en campos como el trabajo, la educación y la salud.
“La tecnología, al igual que la economía, no es un asunto que surge de la nada, una entidad que se da por sentada. Son procesos y evoluciones que a la larga son la suma de elecciones humanas. No se puede olvidar esto”, dice Clara Neppel, directora para Europa del Instituto Europeo de Ingenieros Eléctricos y Electrónicos, una organización, que, entre otras tareas, se dedica a crear estándares para el diseño de tecnología.
El foco sobre la IA se debe, en buena parte, al rápido desarrollo de una serie de técnicas e ideas que durante décadas tuvieron un desarrollo más bien lento. El cambio llegó con la experimentación con redes neuronales (una especie de imitación digital de cómo funciona un cerebro humano) y la utilización de tarjetas de video para manejar las vastas cantidades de datos y el procesamiento necesarios para “educar” a una máquina.
Su utilidad ha sido probada a escala industrial en, por ejemplo, el manejo de consumo de electricidad en servidores de Google: la misma tecnología capaz de jugar go (juego de mesa más complejo que el ajedrez) optimiza el almacenamiento en los centros de datos de la compañía y mejora la eficiencia energética de estas instalaciones en un 15 %.
Asimismo, se estima que más de 15 % de las nuevas preguntas que los usuarios le hacen al buscador de esta empresa son respondidas utilizando inteligencia artificial.
“No soy una pesimista de la tecnología. De hecho, me considero en el lado totalmente opuesto, pero creo que nos hace falta preguntar más cosas. La inteligencia artificial puede reemplazar el razonamiento en algunos lugares y, francamente, a veces puede ser incluso más seguro que lo haga, como en un carro. Pero hay muchos aspectos que deben ser gobernados por los humanos. La utilización indiscriminada de IA puede erosionar la cadena de toma de decisiones y aislarnos de la responsabilidad detrás de una elección. Nadie quiere esto”, dice Boddington.
Cathy O’Neil, doctora en matemáticas, argumenta algo similar en su libro Weapons of Math Destruction, al relatar cómo el contacto humano, la posibilidad de interpelar a una persona, puede convertirse en un lujo, un servicio extra, a medida que la tecnología automatiza funciones que solían ser realizadas por una persona.
De acuerdo con el Banco Mundial, una tajada amplia de la población global que depende de lo que define como trabajos rutinarios, como call centers o la organización de archivos, podría estar en riesgo inminente ante la automatización que estas posiciones podrían sufrir en pocos años.
Neppel asegura que la rápida evolución de ciertas tecnologías obliga a “rediseñar nuestro esquema de valores. Cómo medimos el éxito: hoy es un asunto casi exclusivamente económico, pero no tiene en cuenta las consecuencias de ciertas decisiones”.
Y Boddington añade: “Hay que entender cómo funciona y cómo se diseña la IA porque, si no, cómo explicamos los resultados. No se trata de aspirar al control total y global de esta tecnología. Pero sí hay que entender el marco general y crear los estándares bajo los cuales opera. Si no, repito, ¿quién responde cuando el PC diga no?”.
En 1961, Stanley Milgram diseñó una serie de experimentos para, de cierta forma, medir la respuesta de la gente a las figuras de autoridad. La cosa era así: los voluntarios debían administrar pequeños electrochoques a una persona cada vez que cometiera errores. Esta última era un actor contratado por los investigadores y realmente no recibía corriente. Contra todo pronóstico, los voluntarios llegaron a administrar lo que ellos creían eran niveles peligrosos de corriente, sólo porque los científicos detrás del experimento lo indicaron.
“Nadie habría aceptado administrar una carga peligrosa de entrada, pero si los incrementos son graduales, bueno, eso parecía funcionar para los voluntarios del estudio de Milgram. Cuando las personas dudaban, el científico les decía, muy amablemente: ‘Tranquilos, es parte del experimento’. La gente seguía subiendo el nivel de corriente simulado”, dice la doctora Paula Boddington, investigadora sénior de la Escuela de Ciencias de la Computación de la Universidad de Oxford. Y añade: “Puede que con la tecnología pase algo similar: vamos cambiando y perdiendo cosas en el camino, pieza por pieza, entonces nos acostumbramos y seguimos y lo aceptamos porque hay hombres de ciencia que están diseñando el mundo del futuro. Hay que debatir esta idea”.
Lea también: Los peligros de pensar que la tecnología hace milagros
En el discurso de la doctora Boddington, la inteligencia artificial es una de las tecnologías que más pueden alterar el funcionamiento de la sociedad y por ello necesita un debate público para resolver preguntas de fondo, que sintetiza al decir: “¿Quién responde cuando la máquina dice que no?”.
Esta investigadora se refiere al rol creciente que técnicas como el aprendizaje de máquinas y redes neuronales (dos componentes de lo que comúnmente se conoce como inteligencia artificial o IA) están teniendo en la selección de maestros para sistemas públicos de educación o en la calificación crediticia de los usuarios de un banco. El concepto que más repite Boddington es el de responsabilidad: “Al final, hay personas detrás de estas decisiones. No es un asunto que deba quedar en manos de compañías o corporaciones. Hay responsabilidades individuales porque hay afectaciones individuales o sobre porciones enteras de la sociedad”.
¿Se ha preguntado qué pasará cuando un algoritmo decida que no es elegible para un plan de salud prepagada o para cierta cobertura de seguro médico? ¿Cómo se apela la decisión que toma una máquina, que actúa bajo parámetros que suelen ser secretos o al menos no públicos? La voz de Boddington se suma a la de un grupo nutrido, y creciente, de investigadores, empresarios y (más escasos) diseñadores de políticas públicas que piden pautas y estándares humanos para diseñar una tecnología que puede tener profundas implicaciones en campos como el trabajo, la educación y la salud.
“La tecnología, al igual que la economía, no es un asunto que surge de la nada, una entidad que se da por sentada. Son procesos y evoluciones que a la larga son la suma de elecciones humanas. No se puede olvidar esto”, dice Clara Neppel, directora para Europa del Instituto Europeo de Ingenieros Eléctricos y Electrónicos, una organización, que, entre otras tareas, se dedica a crear estándares para el diseño de tecnología.
El foco sobre la IA se debe, en buena parte, al rápido desarrollo de una serie de técnicas e ideas que durante décadas tuvieron un desarrollo más bien lento. El cambio llegó con la experimentación con redes neuronales (una especie de imitación digital de cómo funciona un cerebro humano) y la utilización de tarjetas de video para manejar las vastas cantidades de datos y el procesamiento necesarios para “educar” a una máquina.
Su utilidad ha sido probada a escala industrial en, por ejemplo, el manejo de consumo de electricidad en servidores de Google: la misma tecnología capaz de jugar go (juego de mesa más complejo que el ajedrez) optimiza el almacenamiento en los centros de datos de la compañía y mejora la eficiencia energética de estas instalaciones en un 15 %.
Asimismo, se estima que más de 15 % de las nuevas preguntas que los usuarios le hacen al buscador de esta empresa son respondidas utilizando inteligencia artificial.
“No soy una pesimista de la tecnología. De hecho, me considero en el lado totalmente opuesto, pero creo que nos hace falta preguntar más cosas. La inteligencia artificial puede reemplazar el razonamiento en algunos lugares y, francamente, a veces puede ser incluso más seguro que lo haga, como en un carro. Pero hay muchos aspectos que deben ser gobernados por los humanos. La utilización indiscriminada de IA puede erosionar la cadena de toma de decisiones y aislarnos de la responsabilidad detrás de una elección. Nadie quiere esto”, dice Boddington.
Cathy O’Neil, doctora en matemáticas, argumenta algo similar en su libro Weapons of Math Destruction, al relatar cómo el contacto humano, la posibilidad de interpelar a una persona, puede convertirse en un lujo, un servicio extra, a medida que la tecnología automatiza funciones que solían ser realizadas por una persona.
De acuerdo con el Banco Mundial, una tajada amplia de la población global que depende de lo que define como trabajos rutinarios, como call centers o la organización de archivos, podría estar en riesgo inminente ante la automatización que estas posiciones podrían sufrir en pocos años.
Neppel asegura que la rápida evolución de ciertas tecnologías obliga a “rediseñar nuestro esquema de valores. Cómo medimos el éxito: hoy es un asunto casi exclusivamente económico, pero no tiene en cuenta las consecuencias de ciertas decisiones”.
Y Boddington añade: “Hay que entender cómo funciona y cómo se diseña la IA porque, si no, cómo explicamos los resultados. No se trata de aspirar al control total y global de esta tecnología. Pero sí hay que entender el marco general y crear los estándares bajo los cuales opera. Si no, repito, ¿quién responde cuando el PC diga no?”.