Publicidad

Lavender, la IA encargada de seleccionar objetivos para Israel en Gaza

Una investigación de medios israelíes —que consiguió el testimonio de oficiales de inteligencia que trabajaron en el sistema “Lavender” —expuso que las Fuerzas de Defensa de Israel (FDI) usaron un programa de inteligencia artificial para marcar durante las primeras semanas de guerra a 37.000 posibles agentes “junior” de Hamás, y se usó en al menos 15.000 asesinatos.

17 de abril de 2024 - 01:15 p. m.
Foto de archivo. Seis oficiales de inteligencia que trabajaron en Lavender afirmaron que el sistema de inteligencia artificial desempeñó un papel central en la guerra.
Foto de archivo. Seis oficiales de inteligencia que trabajaron en Lavender afirmaron que el sistema de inteligencia artificial desempeñó un papel central en la guerra.
Foto: EFE - CHRISTOPHE PETIT TESSON
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Una investigación periodística del medio de comunicación israelí +972 Magazine y Local Call reveló que el ejército israelí usa un programa basado en inteligencia artificial conocido como “Lavender” encargado de seleccionar a los objetivos humanos que después atacarían los militares.

El programa —diseñado por un grupo especial de Inteligencia y tecnología del Ejército israelí conocido como ‘Unidad 8200′ —marcó durante las primeras semanas de guerra a 37.000 palestinos, y se usó en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasión de Gaza, según revela la investigación periodística.

En testimonios exclusivos compartidos a The Guardian, seis oficiales de inteligencia que trabajaron en Lavender afirmaron que el sistema de inteligencia artificial desempeñó un papel central en la guerra, procesando grandes cantidades de datos para identificar rápidamente a posibles agentes “junior” a los que atacar, particularmente durante las primeras semanas y meses del conflicto.

“Esto no tiene paralelo, en mi memoria”, dijo un oficial de inteligencia que usó Lavender, y agregó que tenían más fe en un “mecanismo estadístico” que en un soldado afligido. “Todos los que estaban allí, incluyéndome a mí, perdimos gente el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”, relata el testimonio recogido por The Guardian.

Otro usuario de Lavender cuestionó si el papel de los humanos en el proceso de selección era significativo. “Invertiría 20 segundos para cada objetivo en esta etapa, y haría docenas de ellos todos los días. No tenía ningún valor añadido como ser humano, aparte de ser un sello de aprobación. Me ahorró mucho tiempo”, comentó.

Ante las denuncias, las Fuerzas de Defensa de Israel (FDI) rechazaron rotundamente la afirmación de que existe una política para matar a decenas de miles de personas en sus hogares usando inteligencia artificial.

Las FDI dijeron estar comprometidas con el derecho internacional y actuar en consecuencia. “Como tal, las FDI dirigen sus ataques solo contra objetivos militares y operativos militares y llevan a cabo ataques de acuerdo con las reglas de proporcionalidad y precauciones en los ataques. Los incidentes excepcionales se someten a exámenes e investigaciones minuciosas”, agregó la entidad.

“Las FDI no utilizan un sistema de inteligencia artificial que identifique a los terroristas o trate de predecir si una persona es un terrorista. Los sistemas de información no son más que herramientas para los analistas en el proceso de identificación de objetivos”, recogió The Guardian.

En cuanto a la forma de llevar a cabo los ataques, las FDI dijeron que hacen varios esfuerzos para reducir el daño a los civiles en la medida de lo posible en las circunstancias operacionales vigentes en el momento del ataque. “Para cada objetivo, los procedimientos de las FDI requieren la realización de una evaluación individual de la ventaja militar prevista y de los daños colaterales previstos (....) Las FDI no llevan a cabo ataques cuando los daños colaterales esperados del ataque son excesivos en relación con la ventaja militar”, añadió la entidad.

El uso de poderosos sistemas de inteligencia artificial en la guerra es un territorio inexplorado. Esta “nueva realidad” plantea una serie de cuestiones legales y morales que transforman la relación entre el personal militar y las máquinas.

Más de 33.000 personas han muerto desde el inicio de la ofensiva israelí contra la Franja de Gaza en octubre pasado, según el Ministerio de Salud del territorio controlado por Hamás, y una treintena de menores ha fallecido por desnutrición aguda. La ONU reveló que tan solo durante el primer mes de la guerra, 1.340 familias sufrieron pérdidas múltiples, y 312 familias perdieron a más de 10 miembros.

📧 📬 🌍 Semana a semana tendremos un resumen de las noticias que nos harán sentir que No es el fin del mundo. Si desea inscribirse y recibir todos los lunes nuestro newsletter, puede hacerlo en el siguiente enlace.

👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.

Si le interesan los temas internacionales, quiere opinar sobre nuestro contenido o recibir más información, escríbanos al correo mmedina@elespectador.com o aosorio@elespectador.com

Temas recomendados:

 

Eduardo(34409)17 de abril de 2024 - 03:19 p. m.
Pero la IA que utilizan las FDI fallan al cien por mil: Identifican niños y niñas como objetivos militares y personas que distribuyen ayuda humanitaria. Que Iran no se vaya a apoyar en la IA que utilizan las FDI porque con seguridad los ayatollah si aciertan para una tercera conflagración mundial.
EDGAR(71801)17 de abril de 2024 - 02:21 p. m.
Con inteligencia artificial y sin inteligencia humana igualmente es genocidio
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar