Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Desde los desnudos falsos de Taylor Swift que se volvieron virales y llevaron a Threads y a X a bloquear las búsquedas sobre la cantante, hasta el caso ocurrido en Hong Kong, en donde robaron 23.7 millones de euros a una compañía suplantando al CEO en una videoconferencia y haciendo que transfirieran el dinero a lo que pensaban era la filial de su empresa en el Reino Unido. Los casos son recientes y han puesto de nuevo sobre la mesa la discusión urgente respecto a los alcances de la suplantación de identidad gracias al desarrollo de la inteligencia artificial: el agujero negro de las llamadas deepfake.
El problema evidente es que cada vez resulta más difícil reconocer la verdad en el mar de informaciones alimentadas con inteligencia artificial (IA), sobre todo cuando ni siquiera sabemos a qué nos estamos enfrentando. Y acá un dato revelador: en Colombia, según la empresa de ciberseguridad Kaspersky, el 63 % de las personas no sabe lo que es un deepfake y un 73 % admite que no sabe reconocer este tipo de alteraciones.
Aparición del deepfake
El nuevo concepto se basa en la manipulación de video o imágenes en las que un software analiza el material de origen y extrae parte de él y lo inserta en uno nuevo. El deepfake viene del “deep learning” (aprendizaje profundo) una de las vertientes de la inteligencia artificial. En este caso se emplea la IA para contenido falso.
En una entrevista reciente con la cadena NBC de EE.UU., el director ejecutivo de Microsoft, Satya Nadella, calificó los ‘deepfakes’ de “alarmantes y terribles” y dijo que cree que las empresas de inteligencia artificial deben “actuar rápido” para implementar mejores barreras de seguridad.
Le recomendamos leer: Nuevo juicio a Google: ¿Monopolio de la publicidad digital o competencia justa?
Mario Morales, profesor de la Universidad Javeriana, explica su desarrollo: “Son la forma negativa de llamar una nueva tecnología (deep learning) que tiene muchas aplicaciones... Como cualquier otra tecnología, puede ser utilizada de manera positiva o negativa. La falsificación de imágenes o videos no es nuevo, lo que hace la inteligencia artificial es optimizar la alteración visual y crea imágenes totalmente falsas”.
La preocupación no pasa solo por la difusión de imágenes falsas de contenido sexual explícito sobre una persona, que ya de por sí es un escenario preocupante, sino que también tiene que ver con un nuevo universo en el que ya comienzan a especializarse los ciberdelincuentes.
¿Cómo utilizan los deepfakes y la IA para robar?
Esta tecnología cada vez está más cerca de las personas, al punto en que ya existen aplicaciones de pago con versiones gratuitas que permiten la creación de deepfakes. Uno de los peligros será el acceso a la información a través de los engaños de la IA. Las trampas pueden ser mediante imágenes, videos y voz.
Las llamadas también serán un factor importante a tener en cuenta, si bien ya existen personas que se dedican a hacerse pasar por bancos o por familiares con calamidades, con la IA ahora podrían acceder a la voz de personas cercanas para generar la estafa.
Más de tecnología: MacBook Pro M3: pusimos a prueba su potente procesador
Fabio Assolini, director de investigación y análisis de Kaspersky en América Latina, afirma que ahora la IA está al alcance de todos: ”Lo novedoso es que este tipo de estafas ya no son costosas, estas herramientas están disponibles de forma gratuita”. Esta accesibilidad aumentará el riesgo de ser víctima, debido a que, con el apoyo de esta herramienta virtual, los estafadores podrán utilizar la información para manipular a sus objetivos. Kaspersky afirma que han detectado que las personas que buscan crear ese contenido falso suelen recurrir a la llamada internet profunda para solicitar videos o imágenes de objetivos específicos.
Por su parte, Isabel Manjarrez, investigadora de seguridad del equipo global de investigación y análisis de Kaspersky, asegura que “nos enfrentamos a un escenario de manipulación digital avanzada que compromete la verdad, y nos exige a todos ser conscientes de este fenómeno. En un mundo donde la línea entre la realidad y la ficción digital es cada vez más difusa, debemos consumir los contenidos digitales con responsabilidad, siendo cuidadosos de lo que leemos o escuchamos, y evitando promover la desinformación, compartiendo noticias, videos y audios falsos”.
¿Cómo reconocer una deepfake?
Algunas técnicas para contrarrestar estas alteraciones se han estado desarrollando a la par de los deepfakes. Esta misma semana, Meta anunció que marcará el contenido falso de sus redes sociales para ayudar a los usuarios a saber cuando una foto es creación de la IA y cuando es real.
Sin embargo, esta labor de etiquetado puede ser complicada porque la eficacia de la manipulación sigue en su crecimiento. Morales propone una serie de recomendaciones para identificar un deepfake. “A través del deep learning, se pueden identificar si la simulación visual es falsa, o con estrategias más sencillas, con la naturalidad de gestos (en caso de video) como el parpadeo, en la tecnología a veces es más rápido y no lograr realizar la velocidad real del gesto humano. Otra técnica es aumentar y disminuir la velocidad, lo que permite ver si los fotogramas funcionan armónicamente, este procedimiento requiere de entrenamiento”.
Desde Kaspersky también se ofrecen algunos consejos para detectar los deepfakes:
- Realizar un análisis facial y corporal detallado de la visual en sospecha.
- Buscar sincronización entre los labios y las expresiones para que tenga sentido y coherencia.
- Revisar que la iluminación sea la que corresponde al entorno.
- Visitar y recopilar la información de sitios web oficiales para evitar estafas. Evitar pagos o la suministración de información personal en páginas sospechosas.
Assolini explica que, en términos generales, hay dos categorías de estafas. la profesional y la de menos recursos. “En la estafa con un bajo presupuesto, puedes darte cuenta si miras con atención el deepfake, el movimiento de la boca puede ser raro, o no hay coordinación entre lo que dice y los labios. Si uno está atento, encontrará señales. Las estafas más profesionales, que son más costosas, tendrán mejor calidad y deepvoice. Las más profesionales están direccionadas a empresas, famosos y altos ejecutivos”.
Otra herramienta será la misma inteligencia artificial, Assolini propone que habrá algún tipo de implementación similar a lo que vivió el correo electrónico con la aparición del spam: “Los que crearon los correos electrónicos no pensaron que, algún día, el correo sería una vía para enviar propaganda no solicitada en demasía. A partir de ahí nace la tecnología para detectar y bloquear los correos no deseados. Con la inteligencia artificial será igual”.
Situaciones peligrosas de Deepfakes en 2024
Kaspersky, como todos los años, realizó un informe analizando el panorama de la ciberseguridad en el mundo. Los expertos de la compañía aseguran que las tendencias serán un anzuelo recurrente para sus estafas con la ayuda de la tecnología. El estudio de Kaspersky asegura que a 70 % de los colombianos les preocupa la seguridad en línea. Algunas situaciones en las que se pueden incrementar los riesgos son:
- Los eventos benéficos: en 2023 se registró el nivel más alto de conflictos violentos a escala global desde la segunda guerra mundial. Kaspersky prevé un aumento en las estafas de este tipo aprovechando la empatía en los usuarios.
- El mundo gamer: la empresa de seguridad detectó entre 2022 y 2023 un total de 4.076.530 millones de intentos por descargar archivos, dejando afectados a 192.456 usuarios. Los ciberdelincuentes intensificarán este blanco para el próximo año.
- Los estrenos de entretenimiento: los grandes estrenos que lleguen en 2024 pueden ser nuevas oportunidades para que los ciberdelincuentes propaguen sitios de phishing ofreciendo acceso exclusivo fraudulento.
- Deepfake de voz: Las llamadas o notas de voz con la alteración de voz serán una práctica muy común para engañar y obtener información o dinero de las víctimas.
Beneficio del deep learning en la sociedad
No todo es malo, aunque así lo parezca. El aprendizaje profundo es una herramienta que bien encaminada puede impactar positivamente varios campos de la sociedad. El profesor Morales explica que estas simulaciones pueden ser beneficiosas, por ejemplo, en la ciencia y medicina para la detección de cánceres o hacer comparaciones entre órganos sanos y afectados.
Le recomendamos leer: La UE quiere criminalizar los ‘deepfakes’, el ‘cyberflashing’ y demás ciberdelitos
“En la astronomía para simular viajes al espacio” comentó Morales al añadir que también puede ser útil en el entretenimiento, para los recorridos en los museos y exposiciones, al igual que en los videojuegos y la creación de personajes que interactúen con la persona.
Para la educación, Morales expresa que “en la medida que estas suplantaciones pueden ayudar a recomponer imágenes o construcciones que en su construcción ayudan a una mayor comprensión del conocimiento en sus diferentes fases”.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.