Publicidad

Meta retrocede en Europa: suspende asistente de IA por preocupaciones de privacidad

La compañía tecnológica confirmó que pausará sus planes para entrenar sus modelos de lenguaje con usuarios de la Unión Europea y el Reino Unido.

17 de junio de 2024 - 11:30 p. m.
La compañía tecnológica confirmó que pausará sus planes para entrenar sus modelos de lenguaje con usuarios de la Unión Europea y el Reino Unido.
La compañía tecnológica confirmó que pausará sus planes para entrenar sus modelos de lenguaje con usuarios de la Unión Europea y el Reino Unido.
Foto: AFP - JOSH EDELSON

Meta suspendió los planes para su asistente de inteligencia artificial en Europa tras recibir objeciones del regulador de privacidad de Irlanda, según anunció la empresa. A través de una publicación en su blog de noticias, la empresa matriz de Instagram, Facebook y WhatsApp aseguró que la comisión irlandesa de Protección de Datos (CPD) pidió a Meta retrasar el entrenamiento de sus principales modelos de lenguaje generativos con contenidos publicados en sus redes sociales.

EL CPD es la principal entidad regulatoria de Meta en la Unión Europea. Además de la Comisión Irlandesa, el Regulador de Privacidad del Reino Unido se sumó a la solicitud junto a otras autoridades de protección de datos del continente europeo contra Meta.

A través de su blog, Meta expresó su decepción por la solicitud de la entidad regulatoria europea: “Esto supone un paso atrás para la innovación europea, la competencia en el desarrollo de la IA y retrasa aún más la llegada de los beneficios de la IA a los ciudadanos europeos”. Agregaron que en marzo de este año, habían recibido y acatado comentarios de parte de las Comisiones Europeas de Protección de Datos en su entrenamiento de IA.

Meta expresó que seguirá trabajando en conjunto con la CPD para lograr un mejor manejo de datos y privacidad de sus redes sociales y manifestó su inconformidad comparando su situación con otros actores destacados de la inteligencia artificial “Seguimos el ejemplo de otros, como Google y OpenAI, que ya han utilizado datos de usuarios europeos para entrenar la IA. Nuestro enfoque es más transparente y ofrece controles más sencillos que muchos de nuestros homólogos del sector que ya entrenan sus modelos con información similar disponible públicamente”, señalaron.

Le recomendamos leer: Criminales están robando la imagen de famosos para estafar a sus víctimas

De igual forma, indicaron que al no poder utilizar la información para entrenar sus modelos, Meta solo podrá ofrecer un productor inferior al de sus máximos competidores: “En pocas palabras, sin incluir información local solo seríamos capaces de ofrecer a la gente una experiencia de segunda categoría. Esto significa que de momento no podemos lanzar Meta AI en Europa”.

Por parte de la CPD, recibieron con agrado la noticia de la pausa de los entrenamientos de los modelos de lenguaje de Meta con los contenidos de Facebook e Instagram. “Nos complace que Meta haya reflexionado sobre las preocupaciones que compartimos de los usuarios de su servicio en el Reino Unido, y haya respondido a nuestra petición de pausar y revisar los planes de utilizar los datos de usuarios de Facebook e Instagram para entrenar el A generativo” afirmó Stephen Almond, Director ejecutivo de Riesgo Normativo del Regulador de Privacidad del Reino Unido, en un comunicado.

Le puede interesar: El FMI pide mayores protecciones ante el riesgo de despidos por la IA

En mayo, Meta anunció una modificación en su política de privacidad para evitar sanciones. Este cambio le permitiría utilizar contenido público de Facebook e Instagram, como comentarios, interacciones, estados, fotos y sus descripciones, para entrenar su inteligencia artificial. La empresa justificó esta medida argumentando la necesidad de reflejar la diversidad lingüística, geográfica y cultural de los usuarios europeos en su IA.

El cambio oficial estaba programado para el próximo 26 de junio. No obstante, organizaciones sin ánimo de lucro presentaron una serie de denuncias ante la Unión Europea, argumentando violaciones contra el tratamiento de datos personales de los usuarios.

La legislación sobre protección de datos se está volviendo más rigurosa en todo el mundo, sometiendo a las empresas tecnológicas, especialmente a aquellas que desarrollan inteligencia artificial, a un mayor escrutinio. El uso de datos personales para entrenar modelos de IA plantea importantes cuestiones legales y éticas, y es probable que este debate continúe en el futuro.

Aunque en Latinoamérica estas regulaciones aún no se han implementado plenamente, es previsible que se extiendan a países como Colombia si las empresas tecnológicas pretenden ofrecer asistentes de IA generativa en todos los mercados. Por el momento, en Europa los planes de Meta AI quedan congelados.

Más información: Facebook e Instagram entrenarán su IA con contenido de usuarios: ¿cómo evitarlo?

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar