Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Cuando los fans de Kaitlyn Siragusa, una popular personalidad de Internet de 29 años conocida como Amouranth, quieran verla jugar videojuegos, se suscribirán por 5 dólares al mes a su canal en Twitch de Amazon.com Inc.. Cuando quieran verla interpretar contenido para adultos, se suscribirán por $15 al mes para acceder a su página explícita de Onlyfans.
Y cuando quieran verla hacer cosas que no está haciendo y que nunca ha hecho, de forma gratuita, buscarán en Google los llamados “deepfakes”, vídeos hechos con inteligencia artificial que fabrican una simulación realista de un acto sexual en el que aparecen el rostro de una mujer real.
Lea también: ¿Tenemos el derecho a ser olvidados en la web?
Siragusa, un objetivo frecuente de los creadores de deepfake, dijo que cada vez que su personal encuentra algo nuevo en el motor de búsqueda, presentan una queja ante Google y completan un formulario solicitando que el enlace en particular sea eliminado de la lista, un proceso que consume tiempo y energía. “El problema”, dijo Siragusa, “es que es una batalla constante”.
Durante el reciente auge de la IA , la creación de deepfakes pornográficos no consensuados ha aumentado y el número de vídeos se ha multiplicado por nueve desde 2019, según una investigación de la analista independiente Genevieve Oh. Según el análisis de Oh, casi 150.000 vídeos, que recibieron 3.800 millones de visitas en total, aparecieron en 30 sitios en mayo de 2023. Algunos de los sitios ofrecen bibliotecas de programación deepfake, que presentan rostros de celebridades como Emma Watson o Taylor Swift injertados en cuerpos de artistas porno. Otros ofrecen a los clientes que pagan la oportunidad de “desnudar” a mujeres que conocen, como compañeras de clase o colegas.
Algunos de los nombres más importantes de la tecnología, incluidos Google, Amazon, X y Microsoft Corp. de Alphabet Inc., poseen herramientas y plataformas que incitan al reciente aumento de la pornografía deepfake. Google, por ejemplo, es el principal impulsor de tráfico hacia sitios deepfake ampliamente utilizados, mientras que los usuarios de X, antes conocido como Twitter, hacen circular regularmente contenido deepfake. Amazon, Cloudflare y GitHub de Microsoft brindan servicios de alojamiento cruciales para estos sitios.
Le puede interesar: Así es como usan la inteligencia artificial para robar por medio de videollamada
Para los objetivos del porno deepfake que quisieran responsabilizar a alguien por el daño económico o emocional resultante, no hay soluciones fáciles. Actualmente, ninguna ley federal penaliza la creación o el intercambio de pornografía deepfake no consensuada en los EE. UU. En los últimos años, 13 estados han aprobado leyes dirigidas a dicho contenido, lo que ha resultado en un mosaico de estatutos civiles y penales que han resultado difíciles de hacer cumplir, según Matthew Ferraro , abogado de WilmerHale LLP. Hasta la fecha, nadie en Estados Unidos ha sido procesado por crear contenido sexualizado no consensuado generado por IA, según la investigación de Ferraro. Como resultado, víctimas como Siragusa tienen que valerse por sí mismas.
“La gente siempre publica nuevos vídeos”, dijo Siragusa. “Verse a sí mismo en pornografía a la que no dio su consentimiento se siente asqueroso a un nivel humano, emocional y desagradable”.
Sin embargo, recientemente, un contingente creciente de abogados, académicos y víctimas de políticas tecnológicas que se oponen a la producción de pornografía deepfake han comenzado a explorar una nueva táctica para abordar el problema. Para atraer usuarios, ganar dinero y mantenerse en funcionamiento, los sitios web deepfake dependen de una extensa red de productos y servicios tecnológicos, muchos de los cuales son proporcionados por grandes empresas que cotizan en bolsa. Si bien estos servicios transaccionales en línea tienden a estar bien protegidos legalmente en los EE. UU., los oponentes de la industria de los deepfakes ven su dependencia de estos servicios de gigantes tecnológicos sensibles a la prensa como una vulnerabilidad potencial. Cada vez más, apelan directamente a las empresas de tecnología (y las presionan públicamente) para que retiren de la lista y de la plataforma el contenido dañino generado por IA.
Lea también: Ojo con los videos “deepfake”, una nueva amenaza para la desinformación
“La industria tiene que tomar la iniciativa y ejercer cierto autogobierno”, dijo Brandie Nonnecke, directora fundadora del CITRIS Policy Lab que se especializa en política tecnológica. Junto con otros que estudian los deepfakes, Nonnecke ha argumentado que debería comprobarse si un individuo ha aprobado el uso de su rostro o si ha otorgado derechos sobre su nombre y semejanza.
La mejor esperanza de justicia para las víctimas, dijo, es que las empresas de tecnología “crezcan una conciencia”.
Entre otros objetivos, los activistas quieren que los motores de búsqueda y las redes sociales hagan más para limitar la propagación de los deepfakes. Por el momento, cualquier usuario de Internet que escriba el nombre de una mujer conocida en la Búsqueda de Google junto con la palabra “deepfake” puede recibir docenas de enlaces a sitios web deepfake. Entre julio de 2020 y julio de 2023, el tráfico mensual a los 20 principales sitios deepfake aumentó un 285%, según datos de la empresa de análisis web Similarweb, siendo Google el mayor impulsor de tráfico. En julio, los motores de búsqueda dirigieron 248.000 visitas diarias al sitio más popular, Mrdeepfakes.com, y 25,2 millones de visitas, en total, a los cinco sitios principales. SimilarWeb estima que la Búsqueda de Google representa el 79% del tráfico de búsqueda global.
Nonnecke dijo que Google debería hacer más “diligencia debida para crear un entorno donde, si alguien busca algo horrible, los resultados horribles no aparezcan inmediatamente en el feed”. Por su parte, Siragusa dijo que Google debería “prohibir por completo los resultados de búsqueda de deepfakes”.
En respuesta, Google dijo que, como cualquier motor de búsqueda, indexa el contenido que existe en la web. “Pero diseñamos activamente nuestros sistemas de clasificación para evitar sorprender a las personas con contenido explícito o dañino inesperado que no quieren ver”, dijo el portavoz Ned Adriance. La compañía dijo que ha desarrollado protecciones para ayudar a las personas afectadas por pornografía falsa involuntaria, incluido el hecho de que las personas pueden solicitar la eliminación de páginas sobre ellos que incluyan ese contenido.
“A medida que este espacio evoluciona, estamos trabajando activamente para agregar más salvaguardas para ayudar a proteger a las personas”, dijo Adriance.
A los activistas también les gustaría que las redes sociales hicieran más. X ya cuenta con políticas que prohíben los medios sintéticos y manipulados. Aun así, dichos contenidos circulan habitualmente entre sus usuarios. Tres hashtags para vídeos e imágenes deepfaked se tuitean docenas de veces cada día, según datos de Dataminr, una empresa que monitorea las redes sociales en busca de noticias de última hora. Entre el primer y el segundo trimestre de 2023, la cantidad de tweets de ocho hashtags asociados con este contenido aumentó un 25% hasta 31.400 tweets, según los datos.
X no respondió a una solicitud de comentarios.
Los sitios web deepfake también dependen de las grandes empresas de tecnología para que les proporcionen una infraestructura web básica. Según una revisión de Bloomberg, 13 de los 20 principales sitios web deepfake utilizan actualmente servicios de alojamiento web de Cloudflare Inc. para permanecer en línea. Amazon.com Inc. ofrece servicios de alojamiento web para tres herramientas populares de deepfaking que figuran en varios sitios web, incluido Deepswap.ai. Las campañas de presión pública anteriores han logrado convencer a las empresas de servicios web, incluida Cloudflare, de que dejen de trabajar con sitios controvertidos, desde 8Chan hasta Kiwi Farms. Los defensores esperan que una mayor presión contra las empresas que albergan sitios y herramientas de pornografía deepfake pueda lograr un resultado similar.
Cloudflare no respondió a una solicitud de comentarios. Un portavoz de Amazon Web Services se refirió a los términos de servicio de la compañía, que no permiten contenido ilegal o dañino, y pidió a las personas que vean dicho material que lo informen a la compañía.
Recientemente, las herramientas utilizadas para crear deepfakes se han vuelto más poderosas y accesibles. Se pueden generar imágenes fotorrealistas de intercambio de caras bajo demanda utilizando herramientas como Stability AI, creador del modelo Stable Diffusion. Debido a que el modelo es de código abierto, cualquier desarrollador puede descargar y modificar el código para innumerables propósitos, incluida la creación de pornografía realista para adultos. Los foros web que atienden a creadores de pornografía deepfake están llenos de personas que intercambian consejos sobre cómo crear este tipo de imágenes utilizando una versión anterior del modelo de Stability AI.
Emad Mostaque, director ejecutivo de Stability AI, calificó ese mal uso como “profundamente lamentable” y se refirió a los foros como “aborrecibles”. La estabilidad ha establecido algunas barreras, dijo, incluida la prohibición del uso de pornografía en los datos de entrenamiento para el modelo de IA.
“No se puede controlar lo que los malos actores hacen con cualquier código fuente abierto; sin embargo, hay mucho más de lo que se puede hacer para identificar y criminalizar esta actividad”, dijo Mostaque por correo electrónico. “La comunidad de desarrolladores de IA, así como los socios de infraestructura que respaldan esta industria, deben desempeñar su papel para mitigar los riesgos de que la IA sea utilizada indebidamente y cause daños”.
Hany Farid, profesor de la Universidad de California en Berkeley, dijo que los fabricantes de herramientas y servicios tecnológicos deberían prohibir específicamente los materiales deepfake en sus términos de servicio.
“Tenemos que empezar a pensar de manera diferente sobre las responsabilidades de los tecnólogos que desarrollan las herramientas en primer lugar”, dijo Farid.
Si bien muchas de las aplicaciones que los creadores y usuarios de sitios web de pornografía deepfake recomiendan para crear pornografía deepfake están basadas en la web, algunas están disponibles en las tiendas móviles operadas por Apple Inc. y Google de Alphabet Inc.. Cuatro de estas aplicaciones móviles han recibido entre uno y 100 millones de descargas en la tienda Google Play. Uno de ellos, FaceMagic, ha mostrado anuncios en sitios web pornográficos, según un informe de VICE.
Henry Ajder, un investigador de deepfakes, dijo que las aplicaciones que se utilizan con frecuencia para dirigirse a mujeres en línea a menudo se comercializan de manera inocua como herramientas para la animación o mejora de fotografías con IA. “Es una tendencia generalizada que las herramientas fáciles de usar que puedes obtener en tu teléfono estén directamente relacionadas con personas más privadas, mujeres comunes y corrientes, como objetivo”, dijo.
FaceMagic no respondió a una solicitud de comentarios. Apple dijo que intenta garantizar la confianza y seguridad de sus usuarios y que, según sus directrices , los servicios que acaben utilizándose principalmente para consumir o distribuir contenido pornográfico están estrictamente prohibidos en su tienda de aplicaciones. Google dijo que las aplicaciones que intentan amenazar o explotar a las personas de manera sexual no están permitidas según sus políticas de desarrollador .
Los usuarios de Mrdeepfakes.com recomiendan una herramienta impulsada por inteligencia artificial, DeepFaceLab, para crear contenido pornográfico no consensuado alojado en GitHub de Microsoft Inc. La plataforma basada en la nube para el desarrollo de software también ofrece actualmente varias otras herramientas que se recomiendan con frecuencia en foros y sitios web deepfake, incluido uno que hasta mediados de agosto mostraba a una mujer desnuda del pecho para arriba cuyo rostro se intercambia con el de otra mujer. Esa aplicación ha recibido casi 20.000 “estrellas” en GitHub. Sus desarrolladores eliminaron el video y descontinuaron el proyecto este mes después de que Bloomberg solicitara comentarios.
Un portavoz de GitHub dijo que la empresa condena “el uso de GitHub para publicar contenido sexualmente obsceno” y que las políticas de la empresa para los usuarios prohíben esta actividad. El portavoz añadió que la empresa lleva a cabo “algunos controles proactivos de dicho contenido, además de investigar activamente los informes de abuso” y que GitHub toma medidas “cuando el contenido viola nuestros términos”.
Bloomberg analizó cientos de billeteras criptográficas asociadas con creadores de deepfake, que aparentemente ganan dinero vendiendo acceso a bibliotecas de videos, mediante donaciones o cobrando a los clientes por contenido personalizado. Estas billeteras reciben regularmente transacciones de cien dólares, potencialmente de clientes que pagan. Los usuarios del foro que crean deepfakes recomiendan herramientas basadas en la web que aceptan pagos a través de procesadores convencionales, incluidos PayPal Holdings Inc., Mastercard Inc. y Visa Inc., otro posible punto de presión para los activistas que buscan detener el flujo de deepfakes.
El portavoz de MasterCard, Seth Eisen, dijo que los estándares de la compañía no permiten actividades no consensuadas, incluido ese tipo de contenido deepfake. Los portavoces de PayPal y Visa no hicieron comentarios.
Hasta mediados de agosto, la plataforma de membresía Patreon admitía el pago de una de las mayores herramientas de nudificación, que aceptaba más de 12.500 dólares cada mes de los suscriptores de Patreon. Patreon suspendió la cuenta después de que Bloomberg solicitara comentarios.
El portavoz de Patreon, Laurent Crenshaw, dijo que la empresa tiene " tolerancia cero con las páginas que presentan imágenes íntimas no consensuadas, así como con las páginas que alientan a otros a crear imágenes íntimas no consensuadas”. Crenshaw agregó que la compañía está revisando sus políticas “ya que la IA continúa perturbando muchas áreas de la economía de los creadores”.
Carrie Goldberg, una abogada que se especializa, en parte, en casos relacionados con el intercambio no consensuado de materiales sexuales, dijo que, en última instancia, son las plataformas tecnológicas las que dominan el impacto de la pornografía deepfake en sus víctimas.
“A medida que la tecnología ha invadido todos los aspectos de nuestra vida, al mismo tiempo hemos hecho más difícil responsabilizar a alguien cuando esa misma tecnología nos perjudica”, dijo Goldberg.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.