Regulación de inteligencia artificial: ¿por qué es clave el proyecto de la UE?
La ley de la UE es la primera iniciativa de su tipo en el hemisferio occidental y, con seguridad, se convertirá en un modelo para regulación en otros países. ¿Qué implicaciones tiene este proyecto para usuarios y empresas?
Después de una serie de maratónicas jornadas de discusión, la Unión Europea (UE) acordó este viernes una versión final de un proyecto para regular el uso de la inteligencia artificial (IA) en el bloque. La legislación, que aún debe ser aprobada por el Parlamento Europeo y el Consejo de la UE, busca establecer reglas claras para manejar los riesgos que la IA puede representar para la economía en general, pero también para el bienestar de millones de personas.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
Después de una serie de maratónicas jornadas de discusión, la Unión Europea (UE) acordó este viernes una versión final de un proyecto para regular el uso de la inteligencia artificial (IA) en el bloque. La legislación, que aún debe ser aprobada por el Parlamento Europeo y el Consejo de la UE, busca establecer reglas claras para manejar los riesgos que la IA puede representar para la economía en general, pero también para el bienestar de millones de personas.
El proyecto de ley comenzó a ser discutido en 2018 y, en el camino, tuvo que sufrir un proceso de intensa reingeniería y redacción, pues el avance de la propia tecnología fue creando nuevos escenarios, posibilidades y peligros que no estaban contemplados en los primeros borradores de la ley.
Las sesiones para la aprobación del texto se tomaron buena parte de la semana y, por momentos, llegaron a jornadas continuas de 22 horas (entre miércoles y jueves). Un usuario de redes sociales señaló que “estas son las personas que están decidiendo el futuro de la IA en la Unión Europea: políticos y asesores legislativos que están funcionando a base de cafeína”.
La ley de la UE es la primera iniciativa de su tipo en el hemisferio occidental. Ahora bien, hay otros avances regulatorios en más países, pero este proyecto es único en su alcance y espectro de acción. Las medidas y enfoques adaptados en la Unión Europea serán, seguramente, copiados (o cuando menos servirán de inspiración) para esfuerzos regulatorios en todo el mundo.
Thierry Breton, el comisionado que lideró el procedo de redacción y acuerdo para llegar a esta versión del texto, aseguró en un comunicado que “Europa se ha posicionado como un pionero, entendiendo la importancia de su rol como posicionador de estándares a nivel global”.
La norma establece la creación de una oficina europea para la inteligencia artificial, que será la encargada de coordinar la aplicación de las nuevas reglas. Estará asesorada por un panel de expertos, entre miembros de la academia y de la sociedad civil. Después de que el texto acordado quede en firme, esta entidad debe ser instalada de forma inmediata.
¿Qué implica el proyecto de ley de la UE?
El texto de la Unión Europea propone un enfoque que se aproxima a la IA en función de los riesgos que sus aplicaciones y uso pueden generar.
En términos generales, las aplicaciones se clasifican en tres categorías: riesgo inaceptable (lo que acarrea un veto), riesgo alto (evaluaciones antes de entrar al mercado y durante su permanencia de cara al público) y riesgo limitado (deben cumplir con requisitos mínimos en términos de transparencia, entre otros parámetros).
Lea también: Inteligencia artificial: a regular, a regular, que el mundo se va a acabar
Entre las aplicaciones de riesgo inaceptable, por ejemplo, se encuentran sistemas que clasifiquen a las personas de acuerdo con su comportamiento, su estatus socioeconómico o características personales. También se incluyen sistemas de identificación biométrica en tiempo real (como reconocimiento facial).
Aquí se incluyen aplicaciones que puedan reconocer emociones en las personas, especialmente en entornos educativos o laborales. También estarán prohibidos los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales.
Se espera que la ley, después de sus respectivas aprobaciones, entre en vigor en 2026, aunque su aplicación se hará por etapas. Seis meses después de su entrada en acción deben aplicarse las prohibiciones para los sistemas más riesgosos. Y las adaptaciones a las condiciones para las demás categorías de riesgo se deben generar seis meses después de esto.
Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional.
Las cámaras se podrán utilizar con previa autorización judicial para prevenir una amenaza terrorista “genuina y previsible” o “genuina y presente”, es decir que se esté produciendo en ese momento.
También se podrán emplear para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo un crimen medioambiental y para buscar a las víctimas de estos delitos.
Durante las negociaciones, los gobiernos han presionado para ampliar la lista de delitos, mientras que la Eurocámara ha intentado limitarla lo máximo posible y obtener fuertes salvaguardas para los derechos fundamentales.
¿Qué pasa con ChatGPT?
El otro gran asunto que ha centrado las negociaciones es la regulación de los sistemas de inteligencia artificial generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google.
Tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas publicó el primer borrador de la ley, en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.
El reglamento no prohíbe su uso pero sí ha establecido una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.
En un comunicado, el Parlamento Europeo aseguró que “los sistemas de IA deben ser supervisados por personas, en vez de sistemas de automatización, para prevenir resultados dañinos”.
¿Cómo va la regulación de la IA en otros países?
Para comenzar, la ONU anunció la conformación de un grupo internacional de expertos para hacer recomendaciones sobre el desarrollo global de la IA. El grupo está integrado por 39 personas de 33 países, entre las que se encuentran funcionarios oficiales, académicos y representantes de empresas como Sony, Microsoft, Google y OpenAI.
Además de resaltar sus potenciales beneficios, Antonio Guterres, secretario general de la ONU, aseguró durante la presentación de este consejo que la IA puede “socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la propia democracia”. Así mismo, Guterres señaló otro de los riesgos obvios: la concentración geográfica en el desarrollo de esta tecnología, algo que puede “agravar las desigualdades mundiales y convertir las brechas digitales en abismos”.
Se espera que este consejo consultivo entregue recomendaciones a finales de este año en tres áreas claves: gobernanza internacional, riesgos y desafíos, y oportunidades para acelerar el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS).
Por otro lado, Joe Biden, presidente de EE. UU., publicó en noviembre una orden ejecutiva que obliga a las empresas a advertir cuando sus desarrollos en este campo puedan poner en riesgo la seguridad económica o nacional, entre otros aspectos. También se establece una vigilancia activa por parte de entidades de sectores como seguridad e inteligencia para advertir cuando este tipo de tecnologías representen amenazas sobre infraestructura crítica, entre otros aspectos.
En declaraciones a medios, Biden aseguró que la orden ejecutiva que promulgó era la “acción más significativa” adoptada hasta el momento en este ámbito y que esta podría ser un modelo para otros Estados.
Si bien se trata de un paso importante en temas regulatorios, pues en EE. UU. se han publicado en su mayoría guías con previsiones opcionales para las empresas, los críticos de la medida han dicho que deja mucho margen de interpretación y acción para los desarrolladores. “La orden habla de seguridad económica. ¿Cuándo definimos que eso se ha vulnerado, incluso si ya está pasando?”, comentó un usuario en redes sociales acerca de la orden ejecutiva de Biden.
Pocos días después de la movida en la Casa Blanca, una veintena de países (incluyendo a EE. UU., China y la Unión Europea) firmaron la declaración de Bletchley, un documento que busca un “desarrollo seguro” de la IA.
Si bien la declaración no intenta establecer una regulación mundial para esta tecnología, sí pretende resaltar “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales” de la IA, según se lee en el documento.
- China: en este país, la IA que se utilice dentro del territorio chino debe superar una revisión extensa de seguridad y sus principios deben adherirse a los valores socialistas. Sin embargo, la tecnología que desarrollan gigantes como Tencent, cuando es utilizada en otros territorios, no debe ceñirse a estos controles.
- Japón: en aras de recobrar liderazgo tecnológico, este país se inclina por regulaciones más suaves alrededor de la IA, con el fin de estimular la competencia y el desarrollo de este tipo de tecnologías.
Por ejemplo, las autoridades japonesas no consideran que utilizar imágenes protegidas bajo el derecho de autor para entrenar modelos de IA viole leyes de propiedad intelectual, lo que sí sucede en muchos otros países.
- Colombia: en el país hay una serie de documentos que pretenden regular la IA, como el Marco Ético y un Conpes (3975). Sin embargo, han sido criticados por no contar con participación de ciudadanía y sociedad civil en su construcción. Así mismo, investigadores han resaltado la falta de transparencia en el seguimiento y uso que se le da a esta tecnología en el sector público.
💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.