Campo de cultivo para el engaño: en Colombia el 63 % no sabe qué es un deepfake
Diferenciar entre un contenido real y otro falso se está convirtiendo en un serio problema en las redes sociales. Le contamos cómo identificarlos y qué usos malintencionados se le está dando a las deepfake.
Diego Ojeda
Un estudio realizado por la firma de seguridad informática Kaspersky muestra que, en Colombia, el 63 % de la población no sabe qué es un deepfake; es decir, no conoce que mediante el uso de tecnologías se pueden alterar videos, imágenes, audios y textos para distribuir información falsa.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
Un estudio realizado por la firma de seguridad informática Kaspersky muestra que, en Colombia, el 63 % de la población no sabe qué es un deepfake; es decir, no conoce que mediante el uso de tecnologías se pueden alterar videos, imágenes, audios y textos para distribuir información falsa.
Esta no es una problemática exclusiva de nuestro país, pues la tasa incluso es más alta en otros como Perú (75 %), México (72 %) y Chile (72 %). La situación podría interpretarse como más grave si se tiene en cuenta que son muy pocos los que pueden diferenciar un video real de uno falso; ya que, en Colombia, tan solo tres de cada diez personas cuentan con esta capacidad.
Según los analistas de seguridad informática, este escenario es un campo de cultivo para el engaño, mediante el cual millones de personas pueden ser víctimas de la desinformación, estafas, chantajes, suplantaciones de identidad y acoso, solo por mencionar algunos de los usos malintencionados que se le está dando a la inteligencia artificial.
Hace poco publicamos en El Espectador cómo los ciberdelincuentes están estafando a las personas mediante videos falsos en los que se ve a figuras públicas (como el presidente de la República, jugadores de fútbol y actores) recomendando los servicios que prestan supuestos gurús financieros que multiplican el dinero de sus “inversionistas” en cuestión de horas (la rentabilidad es absurda, pues con $215.000 prometen devolver entre $14 y $16 millones).
Le sugerimos leer: Criminales están robando la imagen de famosos para estafar a sus víctimas
Lo que hacen es aprovechar la confianza que puede generar un famoso, como el presidente Gustavo Petro, para impartir un mensaje falso. No hace falta que el mayor mandatario diga las mentiras de los delincuentes; les basta con tomar algún video en donde esté dando una entrevista y, mediante un programa de computadora, alteran su voz para cambiar el mensaje. ¿El resultado? miles de personas están siendo estafadas cada día.
El siguiente es un ejemplo de estas deepfake.
El problema va más allá, pues pareciera un mal difícil de erradicar. Tras la denuncia hecha por este medio de comunicación, en donde se notificó a Meta (propietaria de Facebook) e incluso al Ministerio de las TIC sobre estos modos de estafa (se les envió material probatorio y recibimos la respuesta de que se iban a tomar acciones), muchos de estos falsos videos siguen circulando y “cazando” incautos, aumentando las arcas de los estafadores, quienes en muchos casos ni siquiera viven en el país.
Más recientemente encontramos videos en donde se suplanta la identidad del presidente de Ecopetrol, Ricardo Roa, para invitar a la gente a invertir en las acciones de la estatal. Al sumergirnos en este engaño (simulando ser un interesado) encontramos que lo que buscan es que se invierta en una página conocida como Farallon FX, la cual es una plataforma de trading que tiene como base las Islas Marshall (un reconocido paraíso fiscal). Esto brinda cero confianza y seguridad jurídica en el eventual caso en que la plataforma quiebre, se liquide o intente adelantar estafas (en resúmen, al no tener una regulación en Colombia no hay quien proteja a los inversionistas). También evidenciamos reseñas negativas de personas que se sienten estafadas al denunciar que la herramienta no les permite retirar su dinero.
La siguiente es la deepfake que suplanta la identidad del presidente de Ecopetrol.
En entrevista con El Espectador, la investigadora de seguridad y análisis de Kaspersky en América Latina, María Isabel Manjarrez, detalló que el mercado de las falsificaciones profundas es uno de fácil acceso. Por ejemplo, existen herramientas gratuitas que, mediante el uso de la inteligencia artificial, pueden alterar imágenes, videos y audios.
La calidad de estos no suele ser la mejor, en la medida en que un ojo poco experto podría notar esas inyecciones digitales y, por lo menos, dudar de si ese contenido es real. Aún así, la prensa ha registrado casos en los que los engaños se han logrado colar.
Resultados más pulidos se pueden obtener mediante el uso de software desarrollado. Este usualmente se adquiere en la dark web o mediante encargos en grupos de Telegram. El costo de una producción de este tipo puede rondar entre los US$300 y los US$20.000, por minuto.
Por sorprendente que parezca, también se ha encontrado que en este mercado la demanda supera la oferta, de allí los altos precios que se puede llegar a pagar por uno de estos engaños. Otro dato que resalta es que usualmente los estafadores son estafados, bien sea porque pagan por el supuesto servicio de elaborar una falsificación profunda y no les entregan nada, o porque a cambio reciben un archivo con código malicioso que infecta sus dispositivos. En estos callejones de internet nunca se sabe con quién se pueda estar tratando.
¿Cómo combatir las deepfakes?
Un primer paso en esta materia lo ha dado la Unión Europea mediante la recientemente aprobada ley de inteligencia artificial. En esta se establece que quienes generen o manipulen contenido de imagen, audio o video en donde aparezcan personas, objetos, lugares, entidades o acontecimientos existentes que resulten falsamente auténticos o veraces deben contar con una referencia, etiqueta o anuncio que indique que dicho contenido se ha originado con inteligencia artificial.
Evidentemente, y más en las redes sociales, esto no pasa. No solo porque el grueso de los contenidos que se generan van más allá de la jurisdicción de la Unión Europea (aunque esa ley puede servir de referente para que otros países implementen las propias), sino porque por obvias razones un cibercriminal no quiere que se sepa que su contenido es un deepfake.
Según lo expresado por expertos, sería conveniente que las redes sociales refuercen sus mecanismos de etiquetado para alertar a los usuarios cuándo se ha detectado que una imagen, video o audio ha sido elaborado mediante inteligencia artificial.
Para esto se necesita de un algoritmo que sea operado o entrenado por una IA, y que sea capaz de detectar esas anomalías que están tan presentes en las falsificaciones profundas, o que pueda analizar su metadata para demostrar que el archivo tiene un origen artificial.
De momento, y eso lo hemos evidenciado en las investigaciones que hemos adelantado como medio en esta materia, las personas siguen siendo los mejores revisores para destapar estos contenidos falsos. Es usual encontrar en los comentarios de estas publicaciones alertas de personas que señalan que se trata de una estafa, o que el contenido es falso.
¿Cómo identificar una deepfake?
Según lo detallado por Manjarrez, usted también puede entrenar su ojo y oido para detectar contenido falso hecho por inteligencia artificial. El secreto está en prestar atención a los detalles.
Por ejemplo, en el contexto en el que se ve una fotografía o video, así como en el contenido del mismo. Si le resulta sospechoso (como ver un tornado en Dubai - este es uno de los tantos absurdos que hemos visto en internet-) desconfíe.
Escuche bien la voz, muchas veces se siente robótica, el acento no corresponde con el de la persona o se pronuncian mal ciertas palabras.
También se suelen ver anomalías en el fondo o en el entorno. Por ejemplo, en un video donde se denuncia que robots ya están haciendo tareas agrícolas, se ve que es un montaje, pues alrededor de la supuesta máquina se nota aura borrosa que pone en evidencia la deepfake. Son detalles mínimos, que a simple vista pueden pasar desapercibidos, pero cuando se aprenden a identificar cada vez resulta más fácil reconocer uno de estos montajes.
Manjarrez también recomienda prestar atención a los movimientos extraños o irregulares, especialmente en las expresiones faciales; cambios en el tono de la piel; parpadeos raros o falta de parpadeos; así como la falta de sincronización entre los labios y el habla.
Es muy probable que con el avance de la tecnología las falsificaciones profundas se vuelvan cada vez más baratas y difíciles de reconocer. De momento, es posible no caer en el engaño atendiendo estas recomendaciones. Entrene su ojo, infórmese, estudie estos temas para que no termine pasando como verdadero algo que es falso.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.