Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Diversas organizaciones han alertado sobre los peligros que tiene el desarrollo indiscriminado de la Inteligencia Artificial, ya que si bien sus aplicaciones podrían derivar en impactos sumamente positivos para la sociedad (como ya los estamos viendo), un uso malintencionado también podría implicar en serias afectaciones.
De hecho, esto último también ya es una realidad, pues el uso malicioso de la Inteligencia Artificial ha sido empleado, entre otras cosas, para la creación de las denominadas Deepfake (imágenes o videos falsos con un elevado grado de sofisticación), el Fakeporn (contenido pornográfico en donde se usan fotografías, usualmente de mujeres, incluirlas en este tipo de materiales), el desarrollo de software código malicioso (los populares virus informáticos) y la elaboración de complejas campañas de suplantación de identidad. Incluso hay quienes incluirían en este listado de amenazas la ola de pérdidas de plazas laborales por cuenta de esta tecnología.
Lea también: Inteligencia artificial: guía rápida para entender el boom de esta tecnología
Con la intención de mitigar estos y otros males, el Parlamento Europeo aprobó recientemente la Ley de Inteligencia Artificial, con la que “se garantiza la seguridad y el respeto de los derechos fundamentales, al tiempo de que impulsa la innovación”. La medida fue respaldada con 523 votos a favor, 46 en contra y 49 abstenciones.
La importancia de este hito histórico es porque sienta las bases de lo que será la regulación de la inteligencia artificial en el futuro. No solo porque servirá de inspiración para la regulación de otras naciones (ya más adelante hablaremos del caso colombiano), sino porque de entrada ya pone en cintura a un número importante de empresas que tienen operación en la Unión Europea.
Como ya lo habíamos explicado en un artículo, el modelo que emplea esta Ley se basa en niveles de riesgo, en donde la privacidad y demás derechos fundamentales se encuentran protegidos.
Por ejemplo, la nueva normativa prohíbe que se empleen estas tecnologías para crear sistemas de categorización biométrica basados en características sensibles, así como la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de reconocimiento facial.
Le puede interesar: Colombia también necesita regular las inteligencias artificiales
Es decir, queda tajantemente prohibido que el uso de estas herramientas se destine a la categorización de los humanos, creando estereotipos, por ejemplo, con base en el tono de piel, rasgos faciales, acento de la voz o cualquier otro dato biométrico.
Esto no es más que el refuerzo a la protección de datos personales sensibles que ya tienen muchas legislaciones, entre esas la colombiana, en donde se prohíbe la captura y tratamiento de este tipo de datos sin que el titular del mismo exprese su consentimiento.
Sin embargo, la prohibición de la nueva regulación europea alcanza niveles tan detallados como que no se permita el reconocimiento de las emociones en el lugar del trabajo o en las escuelas, tampoco los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando está únicamente se base en el perfil de una personas, o en la evaluación de sus características - perfilamientos -), o cuando la tecnología se quiera emplear para manipular el comportamiento humano y se exploten las vulnerabilidades de las personas.
Sin embargo, el parlamento europeo entendió que hay escenarios en los que los usos de estas tecnologías sí podrían aplicarse. Ejemplo de estos son las autorizaciones judiciales o administrativas para el uso de identificación biométrica, en tiempo real, y cuando se limite a un periodo y lugar específicos.
“Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal”, informó el parlamento.
En la categoría de alto riesgo se encuentran todos aquellos usos que puedan ser perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.
Lea también: Crece el debate sobre los riesgos de la inteligencia artificial
“Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones)”, explican.
Ante el elevado riesgo se pedirá a quienes empleen estos sistemas una evaluación y plan de reducción de riesgos, así como mantener los registros de uso de la tecnología, la transparencia de la misma y contar siempre con la supervisión humana (no se le puede delegar el control absoluto de un sistema a una inteligencia artificial).
En materia de Transparencia, se deberán respetar los reglamentos vigentes en temas como derechos de autor, así como publicar resúmenes detallados sobre el proceso de entrenamiento con la que se desarrolló la inteligencia artificial.
Este precisamente ha sido un tema espinoso, pues aún no se ha logrado llegar a un consenso de quién es la autoría de los productos que generan las inteligencias artificiales generativas, como Chat GPT.
Es decir, si una de estas IA produce una canción, la autoría de la misma es: ¿de la inteligencia artificial? ¿del artista en el que se inspiró? ¿de la persona, empresa u organización que la entrenó? o ¿de la persona que le pidió crear esa pieza?
“Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes”, informa el parlamento.
No obstante, la nueva Ley sí deja un precedente importante y es que cual quier imagen, audio o video que produzca una IA, o que haya sido manipulado por una de estas, deberá etiquetarse claramente como tal.
Así sería la regulación en Colombia
Hacia finales de 2022 se radicó en el Congreso el proyecto de ley 253S, “por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de inteligencia artificial, y se dictan otras disposiciones”.
A diferencia de lo aprobado en el Parlamento Europeo, esta no pretende una regulación tan a fondo de las inteligencias artificiales, pero por lo menos sí promete sentar unas bases que mitigarían los eventuales riesgos del uso malintencionado o desmedido de estas tecnologías.
Dentro de sus 31 artículos, el proyecto (que está pendiente de discutir su ponencia para primer debate) plantea bases como que en el desarrollo de cualquier tecnología siempre deberá prevalecer la inteligencia humana sobre la artificial. Una premisa un tanto gaseosa, si se tiene en cuenta que las inteligencias artificiales (amén de otras herramientas) han demostrado desempeñarse mejor que los humanos en determinados contextos.
Este proyecto de ley también propone la preservación del ser humano y su entorno ambiental; la no discriminación por el uso de estas herramientas; el consentimiento de las personas (usuarios) para el uso de sus datos; la comprensión del uso de los datos (que los usuarios sepan en qué serán utilizados); la implementación de herramientas y estrategias de ciberseguridad; el impedimento del uso de las inteligencias artificiales para fines que pongan en riesgo la seguridad nacional; la veracidad de los datos y resultados; la implementación de códigos de ética; y el registro de todos los desarrollos que se adelanten en esta materia ante el Ministerio de Ciencia, Tecnología e Innovación.
En conversación con El Espectador, la Fundación Karisma también se refirió a las particularidades que debería tener una regulación de inteligencias artificiales en Colombia.
Es así como para Karisma es importante que antes de que se dé un debate en el Congreso sobre cómo regular el uso de estas tecnologías, es más urgente adelantar un trámite que defina las reglas de juego de la toma automatizada de decisiones, pues son herramientas que ya están en uso tanto en el ámbito público como privado. En parte la reforma laboral que cursa en la Comisión Séptima de la Cámara de Representantes abarca este aspecto, fijando unas normas para las empresas que se encuentran en un proceso de transición tecnológica con la implementación de sistemas automatizados.
Volviendo a la regulación de las inteligencias artificiales, Karisma explica que el panorama global se ha caracterizado por dos extremos en esta materia: “hay una perspectiva liberal de mercado que tiene como ejemplo a los Estados Unidos y un control estatal estricto como el de China. En el medio, hay un balance entre innovación y control de riesgos, entre mercado y Estado, que enfatiza la protección de derechos humanos. Este es el caso de la Unión Europea, con sus niveles de riesgo”, detalla.
Siguiendo la línea que plantea la Unión Europea, la fundación explica que en Colombia se ha avanzado en aplicaciones de inteligencia artificial que podrían ser consideradas como de riesgo inaceptable y por tanto, prohibidas. Por ejemplo, la Registraduría avanza en la consolidación de un sistema de reconocimiento facial con demostrado interés en su aplicación en espacios públicos para la vigilancia masiva. La inversión en estos sistemas continúa a pesar de la falta de bases legales y constitucionales para ello acarreando graves riesgos de derechos humanos.
Hay otros ejemplos, como el sistema automatizado en el que trabaja la Fiscalía para predecir la reincidencia en la toma de decisiones respecto a medidas de aseguramiento; el Departamento Nacional de Planeación integró en el SISBEN IV la predicción de la capacidad de generación de ingresos y la automatización de la verificación de los beneficiarios; la Corte Constitucional implementa un sistema para la revisión y clasificación de casos de tutela en la que vale la pena cuestionar y mantener preguntas límites sobre la automatización.
El sector privado también representa la integración de tecnologías que podrían entrar en estos niveles de riesgo, como los sistemas que emplean las plataformas de domicilios y transporte que condicionan la obtención de ingresos de quienes en ellas trabajan.
“Por último, en Colombia, nuestro contexto particular implica que muchas de estas tecnologías no han sido desarrolladas en nuestro territorio, sino en contextos socio-jurídicos muy distintos. Por ejemplo, este es el caso del software ABIS de reconocimiento facial y multibiométrico utilizado por la Policía. Para la inteligencia artificial en general esto puede implicar sesgos ocultos o vacíos en la capacidad de control que tenemos sobre las decisiones hechas por las máquinas, por lo que es indispensable que la regulación contemple también nuestra posición –principalmente como consumidores– dentro de esta industria, sin desincentivar los desarrollos locales”, detalla Karisma.
Para la fundación, son siete los elementos que debería tener una propuesta legislativa pensada en regular las inteligencias artificiales:
1. Enmarcar cualquier iniciativa en los estándares de derechos humanos (legalidad, necesidad y proporcionalidad).
2. Contar con amplia participación incorporando los múltiples intereses de la sociedad, buscando balances. Se debe garantizar la participación, veeduría y control ciudadano efectivo sobre los sistemas que ya han sido y continúan siendo desplegados en Colombia y en cada proceso nuevo tanto de implementación como de regulación.
3. Abordar la inteligencia artificial como herramienta y no como fin por sí misma. Mirarla en su contexto, dentro del tema concreto.
4. No es lo mismo regular la inteligencia artificial en el sector público que en el sector privado. ¡Pero ojo! Lo anterior debe tener en cuenta que el sector privado es el que operativiza las soluciones de inteligencia artificial del sector público (ej, IDEMIA en la Registraduría).
5. Evaluar el riesgo de obsolescencia al regular. No se debe regular tecnologías o herramientas concretas sino procesos, resultados, problemas, de lo contrario al dejar consignado en la ley demasiados detalles van a comprometer la regulación y a hacerla obsoleta en un muy corto tiempo.
6. El despliegue de la inteligencia artificial no puede obedecer a la idea predominante de que “más vale pedir perdón que pedir permiso” o “avanzar rápido y romper cosas” y debe siempre ir acompañado de la pregunta de ¿para qué incorporar inteligencia artificial en este proceso? ¿En este contexto esta tecnología resuelve un problema real?
Finalmente, hay que mencionar lo que ya aseguran muchos expertos en la materia, y es que el debate en torno a las inteligencias artificiales debe ser interdisciplinario, integrando ramas como la ética y la filosofía, pues no dejar de ser cierto que las implicaciones de esta tecnología no son meramente técnicas, sino que trascienden a lo humano.
Como en muchos otros aspectos, la ley no avanza al mismo paso de los desarrollos tecnológicos y, como ya lo hemos visto, se hace necesario abordar desde lo legislativo este asunto pues, aunque queramos hacernos los de la vista gorda, la realidad es que las inteligencias artificiales ya hacen parte de nuestras vidas.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.