Publicidad

Primera declaración mundial sobre riesgos de la inteligencia artificial

Estados Unidos, China, la UE y una veintena de otros países firmaron el miércoles en el Reino Unido la Declaración de Bletchley para un desarrollo “seguro” de la inteligencia artificial (IA)

01 de noviembre de 2023 - 11:50 p. m.
Ministros y representantes de varios países durante la cumbre sobre seguridad en la inteligencia artificial en Bletchley Park, Reino Unido.
Ministros y representantes de varios países durante la cumbre sobre seguridad en la inteligencia artificial en Bletchley Park, Reino Unido.
Foto: EFE - CHRIS J. RATCLIFFE / POOL
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

El documento, entre cuyos firmantes tambien figuran Brasil y Chile, subraya “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales” de la IA .

“Esta declaración histórica marca el comienzo de un nuevo esfuerzo mundial para aumentar la confianza del público en la IA, garantizando que sea segura”, dijo el primer ministro británico Rishi Sunak en X (ex Twitter).

Lea también: El filo de la navaja: ¿cómo regular la inteligencia artificial a nivel global?

Ante el creciente potencial de modelos como ChatGPT, la declaración de Bletchley “muestra que, por primera vez, el mundo se reúne para identificar el problema y destacar sus oportunidades”, subrayó a  AFP la ministra británica de Tecnología, Michelle Donelan.

La reunión “no tiene como objetivo sentar las bases de una legislación mundial, sino que debe servir para trazar un camino a seguir”, precisó.

Dos cumbres internacionales sobre la IA tendrán lugar a posteriori, una en Corea del Sur -dentro de seis meses- y otra en Francia, dentro de un año, añadió la ministra desde el emblemático centro donde se descifraron los códigos secretos nazis en la Segunda Guerra Mundial.

Paralelamente al encuentro, la vicepresidente estadounidense Kamala Harris debe anunciar en un discurso en Londres la creación de un instituto sobre la seguridad de la inteligencia artificial en Washington.

Esta estructura -similar a la que también anunció el Reino Unido- reunirá a expertos para establecer “directivas” y evaluar los modelos de IA más avanzados para “identificar y mitigar” los riesgos, según la Casa Blanca.

Las IA generativas -capaces de producir texto, sonidos o imágenes en cuestión de segundos- progresaron exponencialmente en los últimos años y las próximas generaciones de estos modelos aparecerán en el verano.

Conllevan grandes esperanzas para el campo de la medicina y la educación, pero también podrían desestabilizar las sociedades, permitir la fabricación de armas o eludir el control humano, advierte el gobierno británico.

A puerta cerrada

Después de este primer día dedicado a los peligros potenciales de una IA más avanzada, se esperan representantes políticos de alto nivel el jueves en Bletchley Park.

Entre ellos, la presidenta de la Comisión Europea, Ursula von der Leyen, el secretario general de la ONU, Antonio Guterres, y la jefa del gobierno italiano, Giorgia Meloni.

El multimillonario estadounidense y empresario estrella Elon Musk, presente en la cumbre el miércoles, intercambiará con el primer ministro británico Rishi Sunak el jueves por la noche.

Lea también: Esto fue lo que aprobó Joe Biden para regular la inteligencia artificial

“Nuestro objetivo es establecer un marco para una mejor comprensión (...), y para que haya al menos un árbitro independiente que pueda observar lo que están haciendo las empresas de la IA y dé la señal de alarma si algo le preocupa”, precisó Musk a la prensa.

“Mi esperanza para esta cumbre es que haya un consenso internacional sobre la comprensión inicial de la IA avanzada”, añadió.

En una carta abierta publicada el martes, varios de los “padres fundadores” de esta tecnología, como Yoshua Bengio o Geoffrey Hinton, abogaron por “la elaboración y la ratificación de un tratado internacional sobre la IA”, para reducir los riesgos “potencialmente catastróficos que los sistemas avanzados hacen pesar sobre la humanidad”.

El reto consiste en establecer salvaguardias sin obstaculizar la innovación para los laboratorios de IA y los gigantes tecnológicos.

La UE y Estados Unidos, a diferencia del Reino Unido, eligieron el camino de la regulación.

La semana pasada, varias empresas como OpenAI, Meta (Facebook) o DeepMind (Google) acordaron hacer públicas algunas de sus políticas de seguridad de la IA a petición del Reino Unido.

En una carta abierta dirigida a Rishi Sunak, un centenar de organizaciones, expertos y activistas internacionales lamentaron que esta cumbre se celebre a “puerta cerrada”, dominada por los gigantes de la tecnología y con un acceso limitado para la sociedad civil.

💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar