¿Por qué es importante la ley de IA que entra a regir hoy en la Unión Europea ?
La entidad regulatoria del continente europeo es la primera en tomar cartas en el asunto con la aprobación de la primera ley de IA en el mundo, que entra en vigor a partir de hoy, 1 de agosto de 2024.
Juan Carlos Becerra
La inteligencia artificial es sin lugar a dudas una de las herramientas más revolucionarias de los últimos años. El constante y rápido desarrollo de sus capacidades en diferentes áreas no solo está generando oportunidades y beneficios, sino que también ha planteado cuestionamientos por los riesgos que representa.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
La inteligencia artificial es sin lugar a dudas una de las herramientas más revolucionarias de los últimos años. El constante y rápido desarrollo de sus capacidades en diferentes áreas no solo está generando oportunidades y beneficios, sino que también ha planteado cuestionamientos por los riesgos que representa.
Y justamente en esa última parte radica la importancia de la Ley de Inteligencia Artificial que comienza a regir hoy en la Unión Europea, y que fue aprobada definitivamente el pasado 21 de mayo tras más de tres años de trabajo. Se trata de un proceso que comenzó en 2021 cuando, como parte de su estrategia digital, la Comisión Europea propuso el primer marco regulador para la inteligencia artificial.
Con la “AI Act”, su nombre original en inglés, la Unión Europea busca regular el uso de la inteligencia artificial entendida como “un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue y que, para objetivos explícitos o implícitos, infiere a partir de lo que recibe para generar salidas como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”, según la norma.
El objetivo principal de la Ley de IA es fomentar la adopción de inteligencia artificial de una forma fiable, que pueda garantizar al mismo tiempo un alto nivel de protección de la salud, la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europea.
“Con la ley sobre IA, Europa subraya la importancia de la confianza, la transparencia y la responsabilidad a la hora de abordar las nuevas tecnologías, al tiempo que garantiza que esta tecnología en rápida evolución pueda prosperar e impulsar la innovación”, aseguró Mathieu Michel, secretario belga de digitalización, en una rueda de prensa tras su aprobación.
Para el seguimiento, se creará una Oficina Europea de Inteligencia artificial, que brindará asesoramiento y asistencia a la Comisión con el propósito de contribuir a una cooperación efectiva con las autoridades de cada nación. De igual forma, será la encargada de ayudar a garantizar la aplicación coherente de las normas.
Los países miembros están obligados a designar autoridades nacionales competentes que tengan la tarea de proporcionar orientación para la aplicación del nuevo reglamento. Estas autoridades serán supervisadas por el Comité europeo de IA, que adicionalmente tendrá la potestad de imponer multas.
Le recomendamos leer: Cinco claves de la Ley de Inteligencia Artificial que entra a regir en la UE
Los niveles de riesgo, según la ley de IA
La ley de IA que comenzará a regir en el continente europeo, agrupa los riesgos de acuerdo a cómo se está utilizando esta tecnología. Es decir, las obligaciones se intensifican con el nivel de riesgo al que se compromete el usuario. Por esa razón, la normativa identifica cuatro categorías: riesgo inaceptable, riesgo alto, riesgo de transparencia y otros riesgos.
Riesgo inaceptable
Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Incluyen:
- Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños.
- Puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales.
- Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Habrá excepciones muy específicas que requerirán de una autorización previa de un juez, como para la identificación biométrica en casos de persecución de alta complejidad y con una regulación estricta.
Alto riesgo
Serán considerados situaciones que afecten negativamente a la seguridad o a los derechos fundamentales. Son ocho ámbitos específicos que deberán registrarse en la base de datos.
- Biometría: Identificación biométrica remota y categorización biométrica, incluyendo reconocimiento de emociones. Solo con autorización previa en circunstancias excepcionales.
- Infraestructura crítica: Seguridad en la gestión y operación de infraestructuras digitales esenciales como tráfico vial, suministro de agua, gas, calefacción y electricidad.
- Educación y formación: Admisión y evaluación educativa, monitoreo y detección de comportamiento prohibido durante exámenes.
- Empleo y gestión laboral: Reclutamiento, evaluación de candidatos, decisiones sobre promociones, asignación de tareas y monitoreo del desempeño de los trabajadores.
- Servicios esenciales: Evaluación de elegibilidad para asistencia pública, seguros de vida y salud, solvencia crediticia y clasificación de llamadas de emergencia.
- Aplicación de la ley: Uso en polígrafos, evaluación de pruebas, perfilado criminal y evaluación de riesgos de reincidencia.
- Migración y control fronterizo: Evaluación de riesgos de seguridad y examinación de solicitudes de asilo, visados y permisos de residencia.
- Justicia y procesos democráticos: Investigación de hechos y leyes, aplicación de la ley e influencia en el comportamiento de voto y resultados electorales.
¿Cuál es la importancia de la nueva ley de IA de la Unión Europea?
Lo primero que hay que destacar es que se trata la primera ley de regulación a ese nivel de gobernanza. Las autoridades europeas lograron un precedente histórico para impulsar la innovación a través del canal más mediático de los últimos años en el mundo de la tecnología, como lo es la inteligencia artificial.
“La Ley de IA de la UE marca un hito en la regulación tecnológica global. Sus pilares fundamentales incluyen un interés por la protección de derechos como la privacidad y la no discriminación, la exigencia de transparencia en los sistemas de IA, y la regulación estricta de aplicaciones consideradas de alto riesgo”, explicó a El Espectador Pablo Márquez, profesor de la Universidad Javeriana y socio de Ecija, firma especializada en IA.
Asimismo, agregó que no solo es la intención de proteger los derechos de los europeos “También busca fomentar la innovación tecnológica, aunque cabe resaltar que podría ser restrictiva, especialmente en pequeñas empresas”.
Por otra parte, Faiber Calderon, Product Manager de Datawifi, empresa especializada en análisis de datos y calidad de redes wifi, comentó que la regulación ha sido un factor de controversia en los últimos años. “Regular de manera efectiva una tecnología que cambia con tanta velocidad y tiene tantas aplicaciones, supone un gran reto con consecuencias directas en la vida de los seres humanos, el medio ambiente y por supuesto el desarrollo tecnológico y económico a gran escala”, dijo a El Espectador.
De igual forma, enfatizó en la importancia en priorizar la protección de los derechos humanos y aseguró que es crucial tener presente la democratización tecnológica “es pieza clave para impulsar de manera efectiva la innovación y adopción de IA en los ecosistemas empresarial y educativo”.
¿Cuál es el panorama de Estados Unidos y Colombia en legislaciones de IA?
Alberto Teszkiewicz, coordinador argentino de investigación y desarrollo de la empresa Tecnológica SIISA, remarcó la importancia de este día en la línea cronológica de la historia de la inteligencia artificial “Este 1 de agosto es un día significativo porque entra en vigencia por primera vez una ley como tal que abarca todo el espacio de la Unión Europea”, comentó a El Espectador.
Sin embargo, resaltó el trabajo anterior de otras organizaciones con otro tipo de regulaciones “el proceso ya viene desde antes, incluso normativas no obligatorias, no con fuerza de ley, pero sí, normativas y regulaciones de la UNESCO y de distintas organizaciones que han sido claves para la aprobación de esta legislación”.
En cuanto a Colombia, hasta la fecha tampoco se cuenta con una legislación específica sobre IA, “aunque ha mostrado interés en desarrollar políticas en este campo, cómo por ejemplo el Marco Ético de la IA”, dijo Márquez.
El Marco Ético es un documento con una serie de recomendaciones a las entidades públicas para abordar la formulación y gestión de proyectos que incluyan la IA. El marco tiene como propósito sugerir la implementación de principios éticos como: transparencia, explicación, privacidad, control humano de las decisiones, seguridad, responsabilidad, no discriminación, inclusión, prevalencia de los derechos, entre otros más.
Como se menciona, no es de carácter obligatorio, se considera una guía para orientar los sectores públicos. Colombia propuso esta iniciativa en marzo de 2021 a raíz de un llamado de las Naciones Unidas, y fue pionero en Latinoamérica en dar este paso.
En el caso de Estados Unidos, tampoco existe una legislación federal así de exhaustiva que regule el desarrollo de la IA. De momento, solo existen leyes que afectan su aplicación limitada, por ejemplo, regula la IA en la aviación o las actividades en el departamento de defensa con esta tecnología.
“La UE se posiciona a la vanguardia con esta legislación integral. Estados Unidos, por su parte, carece de una ley federal similar, aunque existen iniciativas sectoriales y estatales. La Casa Blanca emitió una ‘Declaración de Derechos de IA’, pero no es vinculante”, señaló el profesor Márquez.
¿Cómo puede afectar esta nueva normativa a las pequeñas y grandes empresas?
Las grandes desfavorecidas con la ley de IA de la Unión Europea son las pequeñas empresas o startups, según Márquez “El problema es para las Pymes que cuentan con menos recursos para afrontar estos cambios. Seguro enfrentarán grandes desventajas competitivas y desafíos para cumplir con regulaciones complejas”.
No obstante, Calderón cree que las regulaciones serán valiosas para las pequeñas empresas porque “puede servirles para adoptar de manera efectiva y clara tecnologías de IA para el día a día en sus negocios teniendo tranquilidad sobre el uso y tratamiento de sus datos”.
De igual froma, Teszkiewicz, explicó que las regulaciones que promueve la nueva ley de IA les generará mayores facilidades en la competencia en el mercado “los órganos estatales van a tener que facilitar ambientes de prueba a nivel nacional. Eso les va a beneficiar porque le vas a permitir competir en mejores condiciones”.
En el caso de las grandes empresas de tecnología, seguramente enfrentarán los mayores costos por el cumplimiento normativo y tendrán la necesidad de adaptar sus productos para el mercado europeo.
Las grandes compañías tecnológicas que no cumplan las normas serán multadas con hasta el 7 % de su facturación global. Las startups, pequeñas y medianas empresas estarán sujetas a multas administrativas proporcionales al tamaño de su negocio.
¿Qué significa en el futuro de la IA?
Lo principal es el precedente que propone para optimizar el desarrollo de inteligencia artificial e impulsar su innovación. Sin embargo, es importante tener presente que será la primera legislación de esta envergadura a nivel mundial y habrá que esperar cómo evoluciona su aplicación y la relación con los gigantes desarrolladores de IA.
Para Márquez esta ley establece un precedente global, y que probablemente influirá en las regulaciones de otros países. “La ley de IA busca un equilibrio entre fomentar la innovación y proteger los derechos fundamentales, lo que podría redefinir cómo se desarrollan y comercializan los productos de IA a nivel mundial. Es un paso hacia un desarrollo más ético y responsable de estas tecnologías”, puntualizó.
En la misma línea, Calderón afirmó que “hemos oído o visto sistemas de IA con tendencias raciales o de género que han generado resultados negativos para muchas personas. Dicho esto, creo que la regulación tiene un papel indispensable en aspectos como: la protección de los derechos humanos, la transparencia y confianza en los sistemas potenciados por IA”.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.