Crece el debate sobre los riesgos de la inteligencia artificial
Desde Naciones Unidas, la Unión Europea y Estados Unidos se han adelantado discusiones para analizar las oportunidades y desafíos que plantea la inteligencia artificial. Todos coinciden en que se requiere una regulación con urgencia.
Diego Ojeda
El auge de la inteligencia artificial está despertando cada vez más la preocupación de la comunidad internacional. Los nuevos modelos de procesamiento de lenguaje (como lo es ChatGPT y Bard), el desarrollo de mecanismos capaces de automatizar tareas que antes eran exclusivas de los humanos, así como el de tecnologías que generan o alteran imágenes, videos y audio (las famosas ‘deepfakes’) plantean oportunidades para la humanidad, pero también desafíos.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
El auge de la inteligencia artificial está despertando cada vez más la preocupación de la comunidad internacional. Los nuevos modelos de procesamiento de lenguaje (como lo es ChatGPT y Bard), el desarrollo de mecanismos capaces de automatizar tareas que antes eran exclusivas de los humanos, así como el de tecnologías que generan o alteran imágenes, videos y audio (las famosas ‘deepfakes’) plantean oportunidades para la humanidad, pero también desafíos.
Lea también: Google prueba herramienta con inteligencia artificial para redactar noticias
El problema es que su evolución se está dando a un ritmo tan disparado que los grises legales y regulatorios que va dejando a su paso plantean un reto para las autoridades, así como para la protección de los derechos humanos en todo el mundo.
No obstante, desde ya se conocen los primeros esfuerzos que podrían derivar en las futuras reglas de juego en torno a estas nuevas tecnologías.
Unión Europea
En el Parlamento Europeo se discute un proyecto de ley que pone a la inteligencia artificial en el centro de la discusión. La iniciativa básicamente apunta a que los sistemas de inteligencia artificial que se usen sean “seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”. Además, sí o sí deberán ser supervisados por humanos, en lugar de un sistema automatizado que por falta de ética o criterio termine perjudicando a la humanidad.
La propuesta incluye un modelo de regulación que se basa en riesgos, yendo desde lo inaceptable (como sistemas de puntuación social que califiquen a las personas con base en su comportamiento, estatus socioeconómico y características personales), pasando por los de alto riesgo (como aquellos que emplean bases de datos para la identificación biométrica), y llegando a las de riesgo limitado (como las herramientas que son capaces de manipular contenidos de imagen, audio y video’).
En diciembre de este año se podría tener la noticia de la aprobación de esta iniciativa (que ya analizamos con mayor detalle en El Espectador), lo que se traduciría en un importante referente para otros gobiernos en el mundo.
Naciones Unidas
Esta semana la Organización de las Naciones Unidas (ONU) también debatió sobre la inteligencia artificial. La gran conclusión fue que la comunidad internacional considera que se debe enfrentar, de manera urgente, la realidad que plantea este tipo de tecnologías, sin que con esto se eche a saco roto las oportunidades que representa.
Según el secretario general de las Naciones Unidas, António Guterres, el advenimiento de las inteligencias artificiales podría marcar un punto de quiebre para la desinformación y los discursos de odio, precisamente por la capacidad que tienen estas herramientas para crear y distribuir información sobre hechos falsos o contrarios a los derechos humanos fundamentales.
Le puede interesar: Marcas de agua y otras medidas de seguridad que implementarán las IA
“El mejor enfoque sería abordar los desafíos existentes y, al mismo tiempo, crear la capacidad para responder a los riesgos. Es imperante la necesidad de trabajar juntos por una IA que cierre las brechas sociales, digitales y económicas, no una que nos separe más”, señaló.
En esa misma conferencia, el cofundador de Anthropic, Jack Clark, aseguró que es importante analizar los desafíos que representa la inteligencia artificial para la paz, así como para la seguridad y la estabilidad global, ya que se ha demostrado que esta puede ser empleada, por ejemplo, para la construcción de armas biológicas.
Y es que hay que recordar que hace una década la empresa DeepMind hizo pública una investigación en la que demostró cómo enseñó a una inteligencia artificial a jugar el icónico juego Space Invaders (que para quienes no lo referencian es un título en el que el jugador manipula un arma para destruir naves extraterrestres que intentan invadir el planeta). Pues bien, para Clark nada impide que las mismas técnicas puedan ser empleadas para crear sistemas programados para vencer pilotos militares de combate aéreo.
Para mitigar estos riesgos, asegura, no se debe dejar que el desarrollo de estas nuevas tecnologías esté al libre albedrío del sector privado. En su lugar, es necesario que las empresas rindan cuentas a los gobiernos. “Sin esa inversión, la comunidad internacional corre el riesgo de entregar el futuro a un grupo reducido de actores del sector privado”, advirtió.
Ante la ONU el representante del Instituto de Automatización de la Academia de Ciencias de China, Yi Zeng, recordó que aunque las inteligencias artificiales, valga la redundancia, aparentan ser inteligentes, en realidad carecen de una comprensión real, por lo que es peligroso cualquier proyecto que le apueste a confiar en estas como agentes responsables. No, y como ya lo plantea la iniciativa que se discute en el Parlamento Europeo, es importante que siempre exista una supervisión humana.
Lea también: Apple GPT: el chatbot de la marca de la manzana que competiría con ChatGPT
Finalmente el ministro de Estado de Relaciones Exteriores de Japón, Takei Shunsuke, subrayó la importancia de que se considere una inteligencia artificial confiable como aquellas queso centra en el ser humano y es coherente con los valores democráticos y los derechos humanos fundamentales.
“La IA no debe ser una herramienta para los gobernantes, sino que debe estar sujeta al estado de derecho”, dijo, al añadir que sus usos en la milicia deben cumplir con criterios de responsabilidad, transparencia y de respeto al derecho internacional.
Estados Unidos
El viernes representantes de las siete potencias en inteligencia artificial del momento, entre las quefiguram, Amazon, Google, Microsoft y Open AI (esta última se ha hecho famosa por ser la desarrolladora de Chat GPT) se reunieron con el presidente Joe Biden para firmar un compromiso en torno a garantizar que sus desarrollos serán transparentes y seguros para la población.
Según lo informado por Bloomberg, parte de estos acuerdos incluyen el compromiso que asumirán las empresas para someter sus nuevos sistemas de inteligencia artificial a pruebas internas y externas antes de su lanzamiento, por lo que pedirán a terceros expertos en la materia escudriñar sus desarrollos y verificar que los mismos no presenten fallas de seguridad, tendencias discriminatorias o riesgos para los derechos, la salud y seguridad de los estadounidenses.
“Aun así, el hecho de que los compromisos sean voluntarios ilustra los límites de lo que el Gobierno de Biden puede hacer para alejar los modelos de IA más avanzados de posibles usos indebidos. Las pautas no exigen la aprobación de expertos externos específicos para lanzar tecnologías, y las empresas solo están obligadas a informar, en lugar de eliminar, riesgos como un posible uso inapropiado o sesgo. El sistema de marcas de agua aún debe desarrollarse y puede resultar difícil sellar el contenido de una manera que las personas o entidades maliciosas que buscan sembrar desinformación en internet no pueden eliminar fácilmente”, informó el medio de comunicación.
Le sugerimos leer: Inteligencia artificial: Corte Constitucional marcará límites para su uso en la justicia
De nuevo, y como se advierte desde Naciones Unidas, no es correcto que el desarrollo e implementación de estas tecnologías quede al criterio de las empresas, sino que los gobiernos de todo el mundo deben trabajar en un marco normativo que los empodere para ejercer una adecuada vigilancia y control que evite que estas nuevas tecnologías terminen siendo nocivas.
En una publicación, The New York Times también alertó sobre el rezago que tienen los intentos de regulación en Estados Unidos ya que, a diferencia de la Unión Europea, los proyectos de ley en torno a este tema apenas están en sus primeras etapas y siquiera cuentan con el apoyo de las mayorías en el Congreso para poder avanzar.
Mientras tanto, y como funciona en muchos países del mundo, la protección a los consumidores se aplica con base en las normas vigentes.
“La semana pasada, la Comisión Federal de Comercio abrió una investigación sobre ChatGPT de OpenAI y solicitó información sobre cómo la empresa protege sus sistemas y cómo el chatbot podría dañar a los consumidores mediante la creación de información falsa. La F.T.C. La presidenta, Lina Khan, ha dicho que cree que la agencia tiene un amplio poder bajo las leyes de protección al consumidor y competencia para vigilar el comportamiento problemático de A.I. compañías”, informó The New York Times.
Los desafíos que plantean estas nuevas tecnologías no son menores, pues ya se ha demostrado el inmenso potencial creativo que tienen, y eso que aún no se sabe los nuevos hitos que se puedan alcanzar en los próximos cinco años.
Como con cualquier tecnología, la inteligencia artificial no es más que una herramienta, por lo que su bondad, maldad o riesgo dependerá de la ética, cuidado y prevención de sus desarrolladores, así como de los usuarios.
Sin embargo, la gran conclusión es que esto no puede quedar al libre albedrío de las personas, sino que se necesita un análisis profundo de las ventajas y riesgos que propone la inteligencia artificial y, por supuesto, un marco normativo que empodere a las autoridades para hacer una adecuado control y protección de los derechos humanos. La pregunta que muchos se hacen es si la paquidermia del legislativo es capaz de medírsele al paso acelerado de estos desarrollos.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.