Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Mark Zuckerberg, creador de Facebook, se destapa ante una cámara y dice: “Me gustaría contarte que nuestra misión en la vida es conectar a las personas, pero no, solo queremos predecir sus comportamientos. Spectre me mostró cómo manipularte para que compartas gratis tu información íntima y la de todos los que amas. Cuanto más te expresas, más te poseemos”.
La imagen de otras figuras públicas como Donald Trump, Kim Kardashian, Morgan Freeman y Barack Obama también ha sido utilizada para propagar información falsa, mediante videos. La cuenta en Instagram del artista Bill Posters tiene por lo menos media docena de este material; los utiliza como una sátira moderna para, por ejemplo, criticar la recolección de datos personales que adelanta Facebook.
Lea también: La pereza mental es la madre de las noticias falsas
Hoy los medios de comunicación se esfuerzan por combatir las noticias falsas que circulan en redes sociales y que en Colombia, por ejemplo, han llegado al punto de convencer a algunos de que hay marcas que venden arroz de plástico, que una ex actriz porno es la hija negada de Gustavo Petro o que un youtuber español es el responsable del atentado terrorista a la escuela de cadetes en Bogotá.
Para Miguel Ángel Mendoza, especialista de seguridad informática de ESET en Latinoamérica, el desarrollo que están teniendo las deepfakes complejiza la labor de reconocer si algo es verdadero o falso en internet. “Conforme se desarrollen más herramientas de edición de video de este estilo, más sencillo y económico, será que las personas accedan a estos recursos”, asegura el profesional, quien no descarta que en el futuro las deepfakes sean utilizadas con fines maliciosos, como por ejemplo, deslegitimar a un líder político en una campaña electoral o adelantar labores de extorsión.
En EE. UU. la legislación ya está teniendo en cuenta las deepfakes. En Texas, por ejemplo, a partir del 1° de septiembre del presente año será ilegal elaborar videos falsos que puedan afectar a un candidato en su proceso electoral.
Mendoza menciona que es importante que las redes sociales, como el principal canal de información en la actualidad, tomen cartas sobre el asunto y desarrollen tecnologías que permitan combatir tal grado de desinformación. “Deberán desarrollar nuevas herramientas de inteligencia artificial que permitan detectar este tipo de deepfakes, como las actuales que bloquean de manera automática imágenes o videos con contenido ofensivo”, detalla.
Al respecto, Facebook dijo el pasado 14 de mayo que invertirá cerca de US$7,5 millones en investigaciones —mediante una asociación con líderes académicos de tres universidades norteamericanas— para mejorar tecnologías que permitan identificar si una foto o un video ha sido manipulado y así, eventualmente, marcarlo como falso.
Twitter, según declaraciones obtenidas por este medio, se prepara, como plataforma social, para contrarrestar el efecto negativo que pueda generar esta evolución de las fake news.
Le puede interesar: Así combate Twitter a los troles en su plataforma
Pero esta no es una labor sencilla. La compañía de ciberseguridad Adalid asegura que la complejidad de edición con la que se elaboran estos videos hace difícil saber si han sido editados. Para ello, dice, se debería hacer un análisis forense en el que se tengan en cuenta elementos como la sincronía de la voz de la persona con el movimiento de su boca, la distribución de las sombras y la asimetría de los tonos de la imagen, características que podrían ayudar a determinar la falsedad de un video.
Según Mendoza, una de las técnicas más efectivas para esto es emplear el análisis basado en ruido. Resulta que, al igual que los surcos que deja un arma en una bala cuando es disparada, las cámaras también dejan una marca física en las imágenes que producen; cualquier alteración en esta característica podría sugerir que el video ha sido editado.No obstante, para Andrés Guzmán, CEO de Adalid, y Mendoza, la labor de las personas y de los medios de comunicación por consultar con las fuentes implicadas la veracidad o falsedad de un video seguirá siendo de vital importancia para combatir las fake news.
No todo es malo con esta tecnología
Producir videos del tipo deepfake sigue siendo una labor compleja; de hecho, parte de su desarrollo ha sido alcanzado gracias a los avances tecnológicos registrados por el sector académico.
Ejemplo de lo anterior es el proyecto en el que trabajan universidades como Stanford y Princeton, de la mano de Adobe Research, en el que ya han logrado hacer que la persona que aparece en un video diga algo diferente a lo dicho en la grabación con solo digitar en un computador el diálogo que quieren modificar. A esto lo llaman “edición basada en texto”.
La implementación de la tecnología que desarrollan estos investigadores está lejos de crear información falsa, pues el propósito de este proyecto es facilitar la posproducción de películas, ya que es habitual que surjan cambios en los libretos, lo que genera un mayor desgaste en los editores que se esfuerzan por aplicarlos o, en el peor de los casos, que la producción se vea obligada a repetir la escena.
Realizar ligeros cambios en las escenas grabadas será tan fácil como teclear para decirle al computador: quiero que borres esto y en su lugar hagas que el actor diga esto otro. Sin embargo, estos investigadores reconocen que la implementación de su tecnología puede ser utilizada con fines maliciosos. “Si bien los métodos para la manipulación de imágenes y videos son tan antiguos como los medios en sí mismos, los riesgos de abuso aumentan cuando se aplican a un modo de comunicación que a veces se considera evidencia autorizada de pensamientos e intenciones. Reconocemos que personas malintencionadas pueden usar tales tecnologías para falsificar declaraciones personales y calumniar a personas prominentes. Estamos preocupados por tal engaño y mal uso”, dicen en un paper.
Por eso, reconocen que es importante que a la par del desarrollo de estas nuevas tecnologías también se trabaje en la evolución de técnicas forenses que permitan identificar si un video ha sido manipulado. “Tales medidas de protección reducirían el potencial de uso indebido y permitirían el uso creativo de tecnologías de edición de video como la nuestra”, concluyen.