Publicidad

¿Cómo regular los sistemas de inteligencia artificial?

Si 2023 será recordado como el año en el que los sistemas de inteligencia artificial entraron en el imaginario colectivo de millones de personas, 2024 será el de las leyes expedidas para regularlos. Hay muchos retos, y no solo exclusivamente técnicos.

Juan David Gutiérrez* / Especial para El Espectador
24 de diciembre de 2023 - 01:09 p. m.
La iniciativa más ambiciosa y avanzada en esta materia es el Artificial Intelligence Act de la Unión Europea.
La iniciativa más ambiciosa y avanzada en esta materia es el Artificial Intelligence Act de la Unión Europea.
Foto: El Espectador
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

La pregunta que muchos Estados alrededor del mundo se están haciendo ya no es si debemos o no regular los sistemas de inteligencia artificial (IA), sino cómo deberíamos hacerlo. El interés de los órganos legislativos no es nuevo: según un reporte publicado por la U. de Stanford, desde 2016 al menos 123 leyes que mencionan el término “inteligencia artificial” fueron aprobadas en 31 países. (Lea Desafíos éticos y sociales, la frontera de la inteligencia artificial)

Sin embargo, ninguna de esas normas vigentes regula de manera integral el desarrollo y uso de los sistemas de IA. La iniciativa más ambiciosa y avanzada en esta materia es el Artificial Intelligence Act de la Unión Europea. El proyecto fue originalmente presentado en abril de 2021 por la Comisión Europea y después de casi dos años de discusiones está a punto de ser aprobado formalmente por el Parlamento y el Consejo Europeo.

La norma europea clasifica los niveles de riesgos que podrían generar diferentes usos de sistemas de IA (inaceptable, alto, riesgo bajo o mínimo) y, a partir de dichos niveles, establece límites y obligaciones. Por ejemplo, los usos clasificados como “inaceptables” están prohibidos por estar en contravía con los valores de la Unión Europea y porque podrían vulnerar derechos fundamentales. Todavía no se conoce el texto definitivo de la norma europea, pero según la información más reciente dentro de los usos prohibidos se encuentra el uso de herramientas de policía predictiva individual, por ejemplo. (Lea Inteligencia artificial: transformando la práctica médica)

Por otra parte, los sistemas de IA “alto riesgo” estarían sujetos a obligaciones, como que sean sometidos a una evaluación de conformidad previa y que cuenten con sistemas de gestión de calidad y de riesgos, entre otros. La lista de sistemas de “alto riesgo” incluiría aquellos usados en infraestructura crítica, entornos educativos, empleo y gestión de trabajadores, acceso a servicios públicos, la administración de justicia, procesos democráticos, entre otros.

El enfoque de regulación basado en riesgos de la Unión Europea ha empezado a calar en otros países del mundo -incluyendo Brasil, Chile y Colombia-, que discuten su propia legislación sobre sistemas de IA.

Colombia es uno de los ocho países de América Latina en los cuales la Rama Legislativa está tramitando proyectos de ley sobre IA. En nuestro Senado hay tres proyectos de ley en trámite (PL-059/23, PL-091/23 y PL-130/23) y en la Cámara de Representantes hay un proyecto en curso (PL-200/23). Solo uno de los cuatro proyectos de ley, el PL-059/23-S, ha sido aprobado en primer debate. Además, hace poco me compartieron el texto de un nuevo anteproyecto de ley que podría ser presentado a comienzos del próximo año en la Cámara de Representantes.

Los cuatro proyectos de ley sobre IA de Colombia comparten tres características básicas. Primera, se trata de iniciativas promovidas por congresistas sin que su origen o desarrollo haya sido auspiciado por el Gobierno Nacional. En el anterior cuatrienio el gobierno de Iván Duque desestimuló a los autores de uno de los proyectos de ley para que lo retiraran (hicieron caso, pero en una posterior legislatura volvieron a presentarlo), y en el actual Gobierno no hay una línea clara respecto de su posición acerca de las iniciativas para regular esta materia.

Segunda, todos los proyectos de ley acogen principios de IA ética, fiable y responsable, particularmente influenciados por las recomendaciones de la OCDE y de la Unesco. Tercera, los proyectos reconocen expresa o tácitamente que la aplicación de sistemas de IA en lo privado y en lo público puede generar grandes beneficios, pero que también deben prevenirse las externalidades negativas que pueden producir.

Aunque hay un proyecto de ley que se distingue de los demás en, al menos, tres aspectos claves: el PL-200/23-C, “por la cual se define y regula la inteligencia artificial, se ajusta a estándares de derechos humanos, se establecen límites frente a su desarrollo, uso e implementación y se dictan otras disposiciones”.

En primer lugar, se trata de un proyecto con el que se propone establecer prohibiciones, limitaciones y obligaciones en cabeza de desarrolladores y usuarios de determinadas herramientas de IA para prevenir la vulneración de derechos fundamentales. Los demás proyectos son poco ambiciosos en la creación de reglas obligatorias y se limitan principalmente a codificar principios éticos sin que se prevean consecuencias concretas para quienes utilicen indebidamente estas tecnologías.

En segundo lugar, el proyecto de ley, cuyos coordinadores ponentes son los representantes a la Cámara Karyme Adrana Cotes Martínez y Alirio Uribe Muñoz, adopta y adapta para Colombia la clasificación de riesgo de los sistemas de IA (inaceptable, alto, limitado y nulo) propuesto por el AI Act de la Unión Europea. No obstante, el PL-200/23-C presenta una lista de actividades excluidas de los sistemas de IA más larga que la propuesta en Europa (por ejemplo, la definición de sentencias judiciales y la limitación de la libertad de expresión), y no cuenta con un listado de aplicaciones de alto riesgo, como sí lo tiene el AI Act.

Finalmente, este proyecto de ley ha sido discutido en audiencias públicas, como la realizada el pasado 1° de diciembre en la Comisión Primera de la Cámara de Representantes, y ha contado con participación del Gobierno Nacional, las empresas, organizaciones de la sociedad civil y la academia.

Si 2023 será recordado como el año en el cual los sistemas de IA entraron en el imaginario colectivo de billones de personas por cuenta de herramientas como ChatGPT, seguramente 2024 será el de las leyes de AI expedidas alrededor del mundo. En el debate sobre cómo regular los sistemas de IA debemos caber todos. La discusión no compete únicamente a los expertos en tecnología. Los procesos regulatorios del desarrollo y uso de sistemas de IA requieren una convocatoria más amplia, pues los retos que debemos enfrentar no son exclusivamente técnicos, sino que también debemos dar respuestas a preguntas básicas sobre el tipo de sociedad que aspiramos a construir.

*PhD en Política Pública de la Universidad de Oxford - Profesor asociado de la Escuela de Gobierno de la U. de los Andes.

Por Juan David Gutiérrez* / Especial para El Espectador

Temas recomendados:

 

Alvaro(ll73e)01 de enero de 2024 - 03:28 p. m.
Muy importante que El Espectador dedique espacio al análisis de este tema, desde diferentes puntos de vista y énfasis. Con esta emergencia tecnológica y las guerras que proliferan, podríamos decir que comenzó realmente el siglo XXI.
Carlos(kz3y6)24 de diciembre de 2023 - 03:13 p. m.
Considero que al tema de la IA le están dando mucha mas relevancia de la que realmente tiene. Leo el periódico físico, porque tengo suscripción y me parece absurdo que le dedique tanto espacio al tema (5 o 6 p.). La IA son términos que suenen "bonito", pero en la práctica no son otra cosa que las mismas App, software o programas que han evolucionado.
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar