Colombia también necesita regular las inteligencias artificiales
El Parlamento Europeo avanza en la definición de las reglas de juego en torno a estas tecnologías, y se proyecta tener una ley antes de que finalice el año. En Colombia la discusión aún es incipiente, aunque ya hay un proyecto de ley radicado.
Diego Ojeda
Con el lanzamiento de herramientas como Chat GPT y Bard, las inteligencias artificiales han cobrado un especial protagonismo, especialmente por el potencial que han manifestado para desarrollar actividades que, hasta hace poco, considerábamos como exclusivas de la inteligencia humana.
Gracias por ser nuestro usuario. Apreciado lector, te invitamos a suscribirte a uno de nuestros planes para continuar disfrutando de este contenido exclusivo.El Espectador, el valor de la información.
Con el lanzamiento de herramientas como Chat GPT y Bard, las inteligencias artificiales han cobrado un especial protagonismo, especialmente por el potencial que han manifestado para desarrollar actividades que, hasta hace poco, considerábamos como exclusivas de la inteligencia humana.
Si bien este no es un tema novedoso, pues el desarrollo de estas tecnologías lleva décadas en ámbitos como la academia (está el ejemplo de Eliza, que bien podría ser la tatarabuela de Chat Gpt al procesar lenguaje natural en 1964), no ha sido sino hasta en los últimos años que ha permeado nuestra cotidianidad. Hoy por hoy tenemos inteligencia artificial en nuestro teléfonos, televisores y hasta en la semaforización de ciudades como Bogotá (solo por citar algunos casos).
De hecho, se prevé que la inteligencia artificial avance en su consolidación como uno de los motores de la economía. Cifras manejadas por la Comisión Europea muestran que las mayores inversiones en esta materia las está haciendo América del Norte, con una destinación de recursos que rondan los 18.600 millones de euros al año, seguida de Asia (7.900 millones de euros) y Europa (3.200 millones). El crecimiento que se está dando es tan disparado, que las proyecciones apuntan a que este último continente llegue a invertir 20.000 millones de euros al año.
Las solicitudes de patentes también están siendo protagónicas. Desde el año 1960 Estados Unidos ha solicitado más de 1.863 patentes, mientras que China ha hecho más de 1.085 y la Unión Europea más de 1.074.
Los alcances de la inteligencia artificial en el corto plazo son tales, que se prevé que junto con la robótica generarán unos 60 millones de empleos en el mundo.
Con aplicaciones cada vez más disruptivas, se hace necesaria una regulación que defina, entre otros aspectos, los alcances que puedan tener estas tecnologías; pues así como son incontables las oportunidades de desarrollo que representan, también es evidente que un uso negativo de las mismas (conciente o inconcientemente) podría derivar en serios problemas.
De momento, en el plano internacional la Unión Europea es quien lleva la batuta en esta materia, pues en su parlamento (en la sede de Bruselas) cursa una iniciativa que podría convertirse en la primera ley en el mundo que reglamenta a las inteligencias artificiales (esta podría aprobarse antes de que finalice el año).
Los detalles de la regulación en Europa
Para el Parlamento Europeo es importante garantizar que los sistemas de inteligencia artificial que se usen sean “seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”. Además, estos sí o sí deben ser supervisados por personas, en lugar de un sistema automatizado (para así evitar resultados que puedan ser perjudiciales).
En aras de implementar un sistema que regule con base en las tecnologías actuales y las que puedan desarrollarse en el futuro (es decir, para que la regulación no quede obsoleta), el proyecto clasifica a las inteligencias artificiales en los potenciales niveles de riesgo que puedan representar.
Estos son los niveles de riesgo, de mayor a menor
Riesgo inaceptable
En este grupo están todos los sistemas que, de entrada, representen una amenaza para las personas. Estos, si se aprueba la regulación, estarán prohibidos.
Ejemplo de esto son inteligencias artificiales que impliquen manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos. Su materialización podría ser un juguete activado por voz que fomenten comportamientos peligrosos para los niños.
Aquí también se encuentran los sistemas de puntuación social que clasifiquen a las personas en función de su comportamiento, estatus socioeconómico y características personales, así como aquellos que empleen identificación biométrica en tiempo real y a distancia (cámaras de reconocimiento facial, por ejemplo).
Sobre esto último el articulado del proyecto explica que hay excepciones. Por ejemplo, serían válidos los sistemas de identificación biométrica a distancia “a posteriori”, en donde la identificación se produce tras un retraso significativo. Estos podrían ser útiles, por ejemplo, para la vigilancia y persecución de delitos graves (siempre y cuando haya una aprobación judicial).
Alto riesgo
En esta categoría están aquellos sistemas de inteligencia artificial que se utilizan en productos sujetos a la legislación de productos de la Unión Europea sobre seguridad de los productos, como juguetes, aviación, automóviles, dispositivos médicos y ascensores. Es decir, se deberá cumplir con las disposiciones que ya exige esa ley.
Los siguientes sistemas también están en la categoría de riesgo alto, y deberán registrarse en la base de datos de la Unión Europea: identificación biométrica y categorización de personas físicas; gestión y explotación de infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas; aplicación de la ley; gestión de la migración, el asilo y el control de fronteras; asistencia en la interpretación jurídica y aplicación de la ley.
Sumado a lo anterior, todos los sistemas que se encuentren en este nivel de riesgo deberán ser evaluados antes de su comercialización, así como a lo largo de su ciclo de vida.
Por su parte, inteligencias artificiales generativas (como es el caso de Chat GPT) deberán cumplir con requisitos de transparencia, como revelar que su contenido se ha producido por una inteligencia artificial, implementar modelos que eviten la generación de contenidos ilegales, así como publicar resúmenes de los datos protegidos por los derechos de autor utilizados para su entrenamiento.
Riesgo limitado
Las de riesgo limitado (es decir, aquellas que no implican el potencial de un uso malicioso perse) deberán cumplir con unos requisitos de transparencia que le permitan a sus usuarios tomar decisiones con conocimiento; es decir, que alerten al usuario sobre la recolección y uso de sus datos, por ejemplo, para que así este pueda decidir si continuar utilizando, o no, la herramienta.
Aquí se incluyen, por ejemplo, las inteligencias artificiales capaces de manipular contenidos de imagen, audio o video (características que podrían ser empleadas para la realización de deep fakes).
Sobre esta regulación el pasado 14 de junio los diputados de la comisión adoptaron su posición negociadora, por lo que comienzan oficialmente las conversaciones en torno a este proyecto de ley.
Así sería la regulación en Colombia
Hacia finales del año pasado se radicó en el Congreso el proyecto de ley 253S, “por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de inteligencia artificial, y se dictan otras disposiciones”.
A diferencia de la propuesta que cursa en el Parlamento Europeo, esta no pretende una regulación tan a fondo de las inteligencias artificiales, pero por lo menos sí promete sentar unas bases que mitigarían los eventuales riesgos del uso malintencionado o desmedido de estas tecnologías.
Dentro de sus 31 artículos, el proyecto (que está pendiente de discutir su ponencia para primer debate) plantea bases como que en el desarrollo de cualquier tecnología siempre deberá prevalecer la inteligencia humana sobre la artificial. Una premisa un tanto gaseosa, si se tiene en cuenta que las inteligencias artificiales (amén de otras herramientas) han demostrado desempeñarse mejor que los humanos en determinados contextos.
Este proyecto de ley también propone la preservación del ser humano y su entorno ambiental; la no discriminación por el uso de estas herramientas; el consentimiento de las personas (usuarios) para el uso de sus datos; la comprensión del uso de los datos (que los usuarios sepan en qué serán utilizados); la implementación de herramientas y estrategias de ciberseguridad; el impedimento del uso de las inteligencias artificiales para fines que pongan en riesgo la seguridad nacional; la veracidad de los datos y resultados; la implementación de códigos de ética; y el registro de todos los desarrollos que se adelanten en esta materia ante el Ministerio de Ciencia, Tecnología e Innovación.
En conversación con El Espectador, la Fundación Karisma también se refirió a las particularidades que debería tener una regulación de inteligencias artificiales en Colombia.
Es así como para Karisma es importante que antes de que se dé un debate en el Congreso sobre cómo regular el uso de estas tecnologías, es más urgente adelantar un trámite que defina las reglas de juego de la toma automatizada de decisiones, pues son herramientas que ya están en uso tanto en el ámbito público como privado. En parte la reforma laboral que cursa en la Comisión Séptima de la Cámara de Representantes abarca este aspecto, fijando unas normas para las empresas que se encuentran en un proceso de transición tecnológica con la implementación de sistemas automatizados.
Volviendo a la regulación de las inteligencias artificiales, Karisma explica que el panorama global se ha caracterizado por dos extremos en esta materia: “hay una perspectiva liberal de mercado que tiene como ejemplo a los Estados Unidos y un control estatal estricto como el de China. En el medio, hay un balance entre innovación y control de riesgos, entre mercado y Estado, que enfatiza la protección de derechos humanos. Este es el caso de la Unión Europea, con sus niveles de riesgo”, detalla.
Siguiendo la línea que plantea la Unión Europea, la fundación explica que en Colombia se ha avanzado en aplicaciones de inteligencia artificial que podrían ser consideradas como de riesgo inaceptable y por tanto, prohibidas. Por ejemplo, la Registraduría avanza en la consolidación de un sistema de reconocimiento facial con demostrado interés en su aplicación en espacios públicos para la vigilancia masiva. La inversión en estos sistemas continúa a pesar de la falta de bases legales y constitucionales para ello acarreando graves riesgos de derechos humanos.
Hay otros ejemplos, como el sistema automatizado en el que trabaja la Fiscalía para predecir la reincidencia en la toma de decisiones respecto a medidas de aseguramiento; el Departamento Nacional de Planeación integró en el SISBEN IV la predicción de la capacidad de generación de ingresos y la automatización de la verificación de los beneficiarios; la Corte Constitucional implementa un sistema para la revisión y clasificación de casos de tutela en la que vale la pena cuestionar y mantener preguntas límites sobre la automatización.
El sector privado también representa la integración de tecnologías que podrían entrar en estos niveles de riesgo, como los sistemas que emplean las plataformas de domicilios y transporte que condicionan la obtención de ingresos de quienes en ellas trabajan.
“Por último, en Colombia, nuestro contexto particular implica que muchas de estas tecnologías no han sido desarrolladas en nuestro territorio, sino en contextos socio-jurídicos muy distintos. Por ejemplo, este es el caso del software ABIS de reconocimiento facial y multibiométrico utilizado por la Policía. Para la inteligencia artificial en general esto puede implicar sesgos ocultos o vacíos en la capacidad de control que tenemos sobre las decisiones hechas por las máquinas, por lo que es indispensable que la regulación contemple también nuestra posición –principalmente como consumidores– dentro de esta industria, sin desincentivar los desarrollos locales”, detalla Karisma.
Para la fundación, son siete los elementos que debería tener una propuesta legislativa pensada en regular las inteligencias artificiales:
1. Enmarcar cualquier iniciativa en los estándares de derechos humanos (legalidad, necesidad y proporcionalidad).
2. Contar con amplia participación incorporando los múltiples intereses de la sociedad, buscando balances. Se debe garantizar la participación, veeduría y control ciudadano efectivo sobre los sistemas que ya han sido y continúan siendo desplegados en Colombia y en cada proceso nuevo tanto de implementación como de regulación.
3. Abordar la inteligencia artificial como herramienta y no como fin por sí misma. Mirarla en su contexto, dentro del tema concreto.
4. No es lo mismo regular la inteligencia artificial en el sector público que en el sector privado. ¡Pero ojo! Lo anterior debe tener en cuenta que el sector privado es el que operativiza las soluciones de inteligencia artificial del sector público (ej, IDEMIA en la Registraduría).
5. Evaluar el riesgo de obsolescencia al regular. No se debe regular tecnologías o herramientas concretas sino procesos, resultados, problemas, de lo contrario al dejar consignado en la ley demasiados detalles van a comprometer la regulación y a hacerla obsoleta en un muy corto tiempo.
6. El despliegue de la inteligencia artificial no puede obedecer a la idea predominante de que “más vale pedir perdón que pedir permiso” o “avanzar rápido y romper cosas” y debe siempre ir acompañado de la pregunta de ¿para qué incorporar inteligencia artificial en este proceso? ¿En este contexto esta tecnología resuelve un problema real?
Finalmente, hay que mencionar lo que ya aseguran muchos expertos en la materia, y es que el debate en torno a las inteligencias artificiales debe ser interdisciplinario, integrando ramas como la ética y la filosofía, pues no dejar de ser cierto que las implicaciones de esta tecnología no son meramente técnicas, sino que trascienden a lo humano.
Como en muchos otros aspectos, la ley no avanza al mismo paso de los desarrollos tecnológicos y, como ya lo hemos visto, se hace necesario abordar desde lo legislativo este asunto pues, aunque queramos hacernos los de la vista gorda, la realidad es que las inteligencias artificiales ya hacen parte de nuestras vidas.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.