Inteligencia artificial: a regular, a regular, que el mundo se va a acabar
La inteligencia artificial está llamada a ser uno de los próximos motores del crecimiento económico. Pero, además de sus posibles bondades económicas, también esconde una serie de peligros y amenazas para temas como el mercado laboral y los derechos humanos.
Santiago La Rotta
A principios de los años 60, el psicólogo Stanley Milgram diseñó una serie de experimentos en los que un grupo de voluntarios debían administrar electrochoques a una persona cada vez que esta cometiera un error.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
A principios de los años 60, el psicólogo Stanley Milgram diseñó una serie de experimentos en los que un grupo de voluntarios debían administrar electrochoques a una persona cada vez que esta cometiera un error.
Los voluntarios terminaron por administrar cantidades peligrosas de electricidad a esta persona y cada vez que mostraban dudas, el científico les aseguraba que todo estaba bien, que era seguro continuar con las descargas.
Lea también: Precio del galón de gasolina en noviembre supera los $14.564
De fondo, no había electricidad involucrada y la persona que recibía la supuesta electricidad era un actor contratado para este fin. La idea del experimento era probar la respuesta de la gente ante las figuras de autoridad.
“Puede que con la tecnología pase algo similar: vamos cambiando y perdiendo cosas en el camino, pieza por pieza, entonces nos acostumbramos y seguimos y lo aceptamos porque hay hombres de ciencia que están diseñando el mundo del futuro. Hay que debatir esta idea”, dice la doctora Paula Boddington, quien ha investigado las consecuencias y los problemas éticos alrededor del desarrollo de la inteligencia artificial (IA).
La salvación para el crecimiento económico, el mayor peligro para la humanidad, el mejor aliado para el trabajo, el peor enemigo del mercado laboral, una espada de doble filo...
En este punto de la historia, la IA ha sido calificada con cada una de estas expresiones y tantas otras más, tan contradictorias entre sí como grandilocuentes.
La batalla de adjetivos y calificaciones sirve, en buena parte, para ilustrar un punto algo obvio con todo tipo de tecnología, pero que resulta particularmente cierto y urgente con esta: como cualquier herramienta, la IA puede servir para construir o destruir; de la misma forma que un martillo sirve erigir una casa o para romper cráneos.
La responsabilidad humana en la inteligencia artificial
El concepto que Boddington más recalca en su trabajo es el de la responsabilidad, que se puede ir diluyendo en el entramado corporativo que va desde la creación de una aplicación de IA a su inclusión en sistemas públicos para, por ejemplo, calificar el desempeño de profesores escolares.
Uno de los puntos que preocupa a investigadores y analistas es que, casi por diseño, muchos de los parámetros y engranajes que permiten a un modelo de IA funcionar son secretos corporativos: nadie sabe muy bien cómo se hace la salsa, pero adelante, hay que comerla.
Y esto es particularmente complicado para una variedad de tecnologías, pero lo es particularmente para sistemas de IA, pues el conjunto de datos con el cual se entrena un modelo de IA puede llevar a resultados con sesgos de género o raciales, por solo hablar de dos puntos complejos.
Lea también: Límites, riesgos y la importancia de regular la inteligencia artificial
“Al final, hay personas detrás de estas decisiones. No es un asunto que deba quedar en manos de compañías o corporaciones. Hay responsabilidades individuales porque hay afectaciones individuales o sobre porciones enteras de la sociedad”, asegura Boddington. Y agrega: “Si utilizamos la IA de forma indiscriminada, lo que puede pasar es que destruyamos lentamente la cadena de responsabilidades. No estoy hablando de culpa, sino de responsabilidad. Creo que hay preguntas serias que no nos estamos haciendo y puede que las estemos evadiendo en medio de la euforia por los beneficios potenciales de una tecnología que puede ser revolucionaria”.
En esto concuerda el Centro para la Democracia y la Tecnología en Estados Unidos (CDT), que ha publicado varios documentos advirtiendo sobre los riegos en la asignación de responsabilidades cuando se usa tecnología de firmas privadas para procesos públicos: “Detrás del ‘sistema’ hay una persona o un grupo de ellas. Es importante saber quiénes son porque ayuda a saber cómo fue construida una tecnología que toma decisiones por nosotros”.
La Electronic Frontier Foundation, una de las organizaciones líderes en derechos digitales en EE.UU., hace eco de este tipo de preocupaciones y, en el sentido del que habla Boddington, plantea una serie de preguntas que deben tener respuesta en medio del auge de los modelos de IA. Se trata de cosas como “cuando los algoritmos (incluyendo sistemas de IA y de aprendizaje de máquinas) tomen decisiones que afecten vidas humanas, ¿cuánta transparencia, apertura y responsabilidad se debería aplicar a esas decisiones? Cuando esas decisiones sean ‘incorrectas’, ¿quién es responsable legal y éticamente?”.
Los pasos hacia la regulación de la IA
Las últimas dos semanas han estado movidas en términos de regulación de la IA.
Para comenzar, la ONU anunció la conformación de un grupo internacional de expertos para hacer recomendaciones sobre el desarrollo global de la IA. El grupo está conformado por 39 personas de 33 países, entre las que se encuentran funcionarios oficiales, académicos y representantes de empresas como Sony, Microsoft, Google y OpenAI.
Además de resaltar sus potenciales beneficios, Antonio Guterres, secretario general de la ONU, aseguró durante la presentación de este consejo que la IA puede “socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la propia democracia”. Así mismo, Guterres señaló otro de los riesgos obvios: la concentración geográfica en el desarrollo de esta tecnología, algo que puede “agravar las desigualdades mundiales y convertir las brechas digitales en abismos”.
Se espera que este consejo consultivo entregue recomendaciones a finales de este año en tres áreas claves: gobernanza internacional, riesgos y desafíos, y oportunidades para acelerar el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS).
Por otro lado, Joe Biden, presidente de EE. UU., publicó esta semana una orden ejecutiva que obliga a las empresas a advertir cuando sus desarrollos en este campo puedan poner en riesgo la seguridad económica o nacional, entre otros aspectos. También se establece una vigilancia activa por parte de entidades de sectores como seguridad e inteligencia para advertir cuando este tipo de tecnologías representen amenazas sobre infraestructura crítica, entre otros aspectos.
En declaraciones a medios, Biden aseguró que la orden ejecutiva que promulgó era la “acción más significativa” adoptada hasta el momento en este ámbito y que esta podría ser un modelo para otros Estados.
Si bien se trata de un paso importante en temas regulatorios, pues en EE. UU. se han publicado en su mayoría guías con previsiones opcionales para las empresas, los críticos de la medida han dicho que deja mucho margen de interpretación y acción para los desarrolladores. “La orden habla de seguridad económica. ¿Cuándo definimos que eso se ha vulnerado, incluso si ya está pasando?”, comentó un usuario en redes sociales acerca de la orden ejecutiva de Biden.
Pocos días después de la movida en la Casa Blanca, una veintena de países (incluyendo a EE. UU., China y la Unión Europea) firmaron la declaración de Bletchley, un documento que busca un “desarrollo seguro” de la IA.
Si bien la declaración no intenta establecer una regulación mundial para esta tecnología, sí pretende resaltar “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales” de la IA, según se lee en el documento.
El modelo de la Unión Europea
En términos de regulación, a pesar de lo dicho por el presidente Biden, el mayor esfuerzo legislativo pareciera estar encabezado por la Unión Europea (UE), que está en negociaciones finales de una ley que aplicaría para todos los países del bloque y estaría lista para firmar a finales de este año.
La meta de la UE es que la ley que promulgue, que sería la primera en la materia en un gobierno occidental, clasificaría las aplicaciones de IA, dependiendo de su riesgo, en tres categorías: riesgo inaceptable (lo que acarrea un veto), riesgo alto (evaluaciones antes de entrar al mercado y durante su permanencia de cara al público) y riesgo limitado (deben cumplir con requisitos mínimos en términos de transparencia, entre otros parámetros).
Entre las aplicaciones de riesgo inaceptable, por ejemplo, se encuentran sistemas que clasifiquen a las personas de acuerdo con su comportamiento, su estatus socioeconómico o características personales. También se incluyen sistemas de identificación biométrica en tiempo real (como reconocimiento facial).
En un comunicado, el Parlamento Europeo aseguró que “los sistemas de IA deben ser supervisados por personas, en vez de sistemas de automatización, para prevenir resultados dañinos”.
Al final del día, lo que estos esfuerzos demuestran es la necesidad creciente de regulación para adaptar las fronteras y posibilidades de esta tecnología a las necesidades de una humanidad que ya enfrenta otros peligros existenciales, como el cambio climático.
💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.