El filo de la navaja: ¿cómo regular la inteligencia artificial a nivel global?
Esta tecnología ha sido reconocida como uno de los próximos motores del crecimiento económico. Sin embargo, además de sus posibles bondades económicas también guarda una serie de peligros y amenazas para temas como el mercado laboral o los derechos humanos.
La salvación para el crecimiento económico. El mayor peligro para la humanidad. El mejor aliado para el trabajo. El peor enemigo del mercado laboral. Una espada de doble filo.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
La salvación para el crecimiento económico. El mayor peligro para la humanidad. El mejor aliado para el trabajo. El peor enemigo del mercado laboral. Una espada de doble filo.
Para este punto de la historia, la inteligencia artificial (IA) ha sido calificada con cada una de estas expresiones y tantas otras más, tan contradictorias entre sí, como grandilocuentes.
Lea también: Los acuerdos económicos con China tras la reunión entre Petro y Xi Jinping
La batalla de adjetivos y calificaciones sirve, en buena parte, para ilustrar un punto algo obvio con todo tipo de tecnología, pero que resulta particularmente cierto y urgente con esta: como cualquier herramienta, la IA puede servir para construir y para destruir; en ese sentido algunos la ven como una bala de plata y otros como un simple balazo.
En la mitad, lo que hay es una necesidad, creciente, de regulación para adaptar las fronteras y posibilidades de esta tecnología a las necesidades de una humanidad que ya enfrenta otros peligros existenciales, como el cambio climático.
Por ejemplo, se sabe que los países del Grupo de los Siete (G7) se preparan para pedir a las empresas de tecnología que acepten un conjunto de reglas para mitigar los riesgos de los sistemas de la inteligencia artificial como parte de una propuesta destinada a unir los enfoques divididos en Europa y Estados Unidos.
La regulación que pediría el G7 incluye pruebas externas de productos de IA antes de su implementación, informes públicos sobre medidas de seguridad y controles para proteger la propiedad intelectual, entre otros principios que, sin embargo, serían de aplicación voluntaria.
Sin embargo, la Unión Europea trabaja en su propio marco regulatorio de la IA que sí sería de obligatorio cumplimiento. Su propuesta de Ley de IA se encuentra en negociaciones finales con el objetivo de llegar a un acuerdo antes de fin de año.
Lea también: Desacuerdo en el Gobierno por alza del precio de la gasolina en noviembre
La ONU entra al baile
Preocupado por el imparable avance de la inteligencia artificial, el secretario general de la ONU, Antonio Guterres, anunció este jueves la composición del grupo consultivo multilateral que hará propuestas para la gobernanza de estas nuevas tecnologías destinada a maximizar sus beneficios y disminuir sus riesgos.
El “potencial transformador de la IA para el bien es difícil incluso de imaginar”, en particular para las economías en desarrollo, que podrían hacer una elipsis tecnológica y llevar “los servicios directamente a las personas (...) que más los necesitan”, dijo Guterres.
Pero también lo son los potenciales riesgos, en particular en el campo de la desinformación, el asentamiento de los prejuicios y la discriminación, la vigilancia y la invasión de la privacidad o el fraude, advirtió.
La IA puede igualmente “socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la propia democracia”, recordó.
Para el secretario general, otro riesgo de la IA, que hasta ahora se “concentra en un puñado” de países, es que “agrave las desigualdades mundiales y convierta las brechas digitales en abismos”.
Lea también: Límites, riesgos y la importancia de regular la inteligencia artificial
Guterres apuntó en una rueda de prensa que este órgano asesor de alto nivel tiene un equilibrio de género -20 mujeres y 19 hombres-, es geográficamente diverso -participan 33 países- y abarca distintas generaciones.
En este “comité de sabios” hay representantes de diversos Gobiernos, como Carme Artigas, secretaria de Estado de Digitalización e IA de España; así como del mundo académico, como es el caso de Paolo Benanti, profesor de la Pontificia Universidad Gregorian, y representantes de titanes de la tecnología como Sony, Microsoft, Google, y OpenAI. Todos los miembros fueron parte de una convocatoria abierta a la que se presentaron 1.800 personas.
La primera reunión de este órgano será el viernes y, en general, el Consejo Consultivo hará recomendaciones a finales de este año en tres áreas: la gobernanza internacional de la inteligencia artificial, los riesgos y desafíos de esta tecnología y, por último, las oportunidades para aprovechar la IA para acelerar el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS).
Asimismo, Guterres señaló que las recomendaciones de este consejo contribuirán a los preparativos de la Cumbre del Futuro del próximo septiembre y, específicamente, a las negociaciones en torno al Pacto Digital Mundial propuesto.
Guterres lleva meses advirtiendo de los posibles beneficios y problemas que pueden suponer la IA, sobre todo desde que el chatbot ChatGPT, de OpenAI, alcanzó popularidad en noviembre del año pasado, lo que ha dado pie a un boom de otras aplicaciones que usan la IA para clonación de voz o generadores de imágenes, entre otras muchas.
¿Cómo está la regulación de la inteligencia artificial a nivel mundial?
🇺🇲 EE.UU.: en buena parte ha permitido que las compañías diseñen sus propias salvaguardas y regulaciones, pues la acción a nivel estatal tiene que pasar por el Congreso y los apoyos políticos son inciertos para este tipo de temas.
Sin embargo, varias agencias, como el Departamento de Justicia y el regulador de comercio han dicho que muchas aplicaciones de IA ya están cubirtas bajo leyes existentes.
Lea también: Si la IA transforma la economía, ¿cómo lo hará?
🏴 Reino Unido: es un país clave, pues el laboratorio de IA de Google (DeepMind) està situado allí. Sin embargo, no ha expedido legislación aún, debido al miedo a que una regulación centralizada pueda afectar la innovación en este campo clave.
En noviembre realizará una cumbre sobre seguridad alrededor de la IA y se ha reportado que la regulación que emerja serña dividida entre agencias que vigilan temas como derechos humanos, seguridad, salud y competencia en el mercado.
🇪🇺 Unión Europea: es el bloque más activo en cuanto a regulación de la IA. Su meta es que la ley que promulgue, y que sería la primera en la materia en un gobierno occidental, clasificaría las aplicaciones de IA dependiendo de su riesgo.
La regulación que implementaría la UE prohibiría el usos intrusivos de la IA, como identificación biométrica en tiempo real para espacios públicos, por ejemplo.
🇨🇳 China: en este país, la IA que se utilice dentro del territorio chino debe superar una revisión extensa de seguridad y sus principios deben adherirse a los valores socialistas. Sin embargo, la tecnología que desarrollan gigantes como Tencent, cuando es utilizada en otros territorios, no debe ceñirse a estos controles.
🇯🇵 Japón: en aras de recobrar liderazgo tecnológico, este país se inclina por regulaciones más suaves alrededor de la IA, con el fin de estimular la competencia y el desarrollo de este tipo de tecnologías.
Por ejemplo, las autoridades japonesas no consideran que utilizar imágenes protegidas bajo el derecho de autor para entrenar modelos de IA viole leyes de propiedad intelectual, lo que sí sucede en muchos otros países.
🇨🇴 Colombia: en el país hay una serie de documentos que pretenden regular la IA, como el Marco Ético y un Conpes (3975). Sin embargo, han sido criticados por no contar con participación de ciudadanía y sociedad civil en su construcción. Así mismo, investigadores han resaltado la falta de transparencia en el seguimiento y uso que se le da a esta tecnología en el sector público.
💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.