Los desafíos frente al material de abuso contra niños y niñas en tiempos de IA
Con un mínimo esfuerzo y dinero, la IA permite crear imágenes o videos hiperrealistas, y en manos equivocadas puede resultar en situaciones abusivas frente a las cuales la ley tiene desafíos por resolver.
Juliana Castellanos Guevara
Con el auge de la inteligencia artificial (IA), los límites con lo real son más difíciles de encontrar. En efecto, en términos legales, hoy ya no bastaría con tipificar el delito de “pornografía” con menores de edad a “representaciones reales de actividad sexual que involucre persona menor de 18 años”, sino que el concepto seguramente deberá ampliarse para incluir “representaciones simuladas o imágenes realistas de un niño no existente”. La sociedad se enfrenta al reto de responder a la llamada pornografía “deepfake” no consentida (cuando se trata de mayores de edad) y al material de abuso o explotación sexual contra niños y niñas creado con IA.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
Con el auge de la inteligencia artificial (IA), los límites con lo real son más difíciles de encontrar. En efecto, en términos legales, hoy ya no bastaría con tipificar el delito de “pornografía” con menores de edad a “representaciones reales de actividad sexual que involucre persona menor de 18 años”, sino que el concepto seguramente deberá ampliarse para incluir “representaciones simuladas o imágenes realistas de un niño no existente”. La sociedad se enfrenta al reto de responder a la llamada pornografía “deepfake” no consentida (cuando se trata de mayores de edad) y al material de abuso o explotación sexual contra niños y niñas creado con IA.
Con un mínimo esfuerzo y dinero, la IA permite crear imágenes o videos hiperrealistas, y en manos equivocadas les ha facilitado a delincuentes tomar fotos de víctimas vestidas extraídas de sus cuentas de redes sociales y manipularlas para que parezcan desnudas.
Este es el caso que enfrentan las autoridades españolas en la investigación de cinco jóvenes acusados de utilizar IA para generar imágenes de desnudos de 20 chicas menores de edad y hacerlas circular por internet, causándoles un “daño significativo” tanto “emocional como social”, según un comunicado de la Guardia Civil. Uno de los muchos pleitos que se han presentado al rededor del mundo desde el año pasado.
Por ejemplo, en Florida, Estados Unidos, dos estudiantes de 13 y 14 años fueron arrestados en diciembre e imputados por delitos graves de tercer grado por aparentemente crear desnudos falsos de sus compañeros de clase, al final solo fueron expulsados del instituto. En el estado de California, hubo uno similar, pero por no existir un artículo que mencionara explícitamente las imágenes generadas por IA, no pudo castigarse. Hasta ahora, el único caso que se conoce que haya terminado con cárcel fue en Corea del sur, donde, afortunadamente, un hombre no pudo compartir más de 360 imágenes que tenía en su poder.
Incluso celebridades como la artista Rosalía o Taylor Swift, adultas, han sido víctimas de la creación de material pornográfico de este tipo a partir de fotografías publicadas por ellas mismas en redes sociales.
Hasta el momento, Europa, Estados Unidos y China han avanzado en regular estos abusos tratando de incluir la representación virtual, esto es, aquella imagen generada con IA, con independencia de la identidad de los niños, niñas y adolescentes (NNA) allí expuesto y precisando que estos conceptos no comprenden montajes no realistas, caricaturas ni similares. Sin embargo, como advirtió la Policía española, “el realismo de las imágenes generaba una gran dificultad para distinguir entre aquellas que eran auténticas y las que habían sido modificadas”.
Según Sandra Ortiz, abogada y especialista en Regulación y Gestión de las Telecomunicaciones y Nuevas Tecnologías de la Universidad Externado, desde el punto de vista técnico hay una serie elementos que permiten reconocer si una foto o video es una imagen falsa o “deepfake”, como el movimiento poco realista de y alrededor de la boca, las incongruencias en la piel (demasiado lisa o arrugada, o su edad parece desviada en comparación con el cabello), demasiado o muy poco parpadeo, entre otros, pero “la falta de recursos y capacitación de profesionales que permitan identificar este tipo de conductas impide detener, incriminar y sancionar el uso de esta tecnología”, detalló la experta.
“El problema es que la mayoría de las autoridades fueron formadas en otras realidades”, apuntó Javier Ariza, docente del departamento de Derecho Económico de Universidad Externado. Igualmente, se crearon las leyes. Entonces, “pedirle a una autoridad que revise con las leyes actuales conductas que no existían cuando fueron diseñadas estas normatividades no permite que lo que se haga ahora sea eficaz para conocer las realidades que estamos viendo hoy día”, apuntó.
Por ahora, mientras el Derecho se actualiza a la realidad, para evitar la impunidad de estas conductas, según Ortiz, es viable tipificarlas como injuria o delitos contra la intimidad cuando se trata de un NNA identificable modificado con IA para situarlo en una escena de abuso o explotación sexual, ya que en este caso el autor pretende utilizar la IA para dañar la honra del NNA.
No obstante, quedan varios vacíos legales por descifrar. Por ejemplo, en caso de no poder determinar la identidad del o los NNA en la imagen original, ¿cómo acusar a alguien cuando no hay una víctima directa del delito?
Tampoco, sabemos aún “cuáles son los efectos que pueden tener estos hechos que comparamos con delitos muy graves”, advirtió Ariza. “No sabemos si son iguales o peores”, agregó. Por ello, es importante que “varios sectores que representen a la sociedad entren en esta discusión. Que no sea solo un tema de abogados, de ingenieros o expertos en inteligencia artificial junto a legisladores, sino que haya psicólogos, antropólogos o sociólogos que expliquen de qué manera esto afecta a las víctimas para que de ese modo las sanciones que se reciban sean proporcionales”, continuó el docente.
Según las autoridades españolas, en el caso comentado, a pesar de que las imágenes no fueron reales, estas fueron difundidas por grupos de redes sociales conocidas, “causando un daño significativo tanto emocional como social a las víctimas”.
Otra variable para considerar es la responsabilidad que tienen las empresas que desarrollan este tipo de tecnología. Aunque grandes nombres en la industria colaboran denunciando cualquier material ilícito que descubran, “la limitante está asociada con las modificaciones que se pueden dar sobre una misma imagen y la imposibilidad de rastrear la imagen original, lo que imposibilita en el caso de los delitos de abuso sexual infantil conocer su huella digital y las alteraciones que esta tenga”, explicó Ortiz.
No se puede olvidar, la falta de ética que existe entre algunos creadores. Existen aplicaciones cuyo propósito es desnudar personas a partir de imágenes reales. Según explicó el portal 20 Bits, solo hace falta que la persona aparezca sola en la imagen y que no lleve ropa de abrigo para obtener un resultado final, a costo muy bajo, por demás.
Algunas advierten en los términos y condiciones del servicio que el internauta “es el único responsable de las imágenes generadas” o “es el responsable de no usar la aplicación para fines ilegales o no autorizados”. Asimismo, que “no reclama la propiedad del contenido resultante” porque el servicio “está destinado para uso personal y no comercial”, agregando que el usuario “acepta que sus imágenes no infringen los derechos de autor, marcas comerciales u otros derechos de propiedad intelectual de terceros”.
Aún queda mucho que estudiar y comprender de un mundo que avanza mucho más rápido de lo que se podría prever la ley. Algunos países consideran que las regulaciones deben orientarse a todo tipo prácticas prohibidas que pudieran ser constitutivas de delito o invasivas de cualquier derecho fundamental, como la identificación biométrica remota, la creación de bases de datos de reconocimiento facial basada en la recopilación de imágenes en internet, etcétera; pero hay quienes creen que eso podría limitar todo lo bueno que también ha traído la IA.
📧 📬 🌍 Semana a semana tendremos un resumen de las noticias que nos harán sentir que No es el fin del mundo. Si desea inscribirse y recibir todos los lunes nuestro newsletter, puede hacerlo en el siguiente enlace.
👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.
Si le interesan los temas internacionales, quiere opinar sobre nuestro contenido o recibir más información, escríbanos al correo mmedina@elespectador.com o aosorio@elespectador.com