Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Es muy probable que, navegando en internet, ya hayas visto el rostro de una persona que nunca ha existido. Se les conoce como rostros GAN (por sus siglas que, traducidas al español, son Redes Generativas Adversarias) y su uso ha sido sumamente variado en los últimos años.
Ejemplo de lo anterior es una empresa que no quiera pagar a un modelo para posar en una valla publicitaria. Esta podría pedir a una de estas herramientas que genere la imagen de una persona, con las características que busca. También puede ser útil para una empresa que desarrolla videojuegos en la búsqueda de nuevos personajes, o para un artista que quiera crear retratos.
Según lo detallado por la firma de seguridad informática ESET, la tecnología detrás de los rostros GAN fue creada en el año 2014 por Ian Goodfellow y su equipo de colegas. La compañía explica que estas herramientas funcionan con base al entrenamiento de imágenes, por lo que es necesario entrenar la máquina con rostros de gente real para que pueda tomar decisiones.
Lea también: ¿Una nueva era para el ciberdelito?: ChatGPT puede ser usado con fines maliciosos
Con el avance de la los rostros generados por estas inteligencias artificiales se hacen cada vez más reales, por lo que a este punto es sumamente difícil diferenciar cuál es el de una persona real y cuál el de uno creado por una máquina.
Es aquí donde sale a relucir el potencial malicioso con el que puede ser usada esta tecnología. Uno de estos es el de la creación de noticias falsas. Conocidas como Deep Fakes, la información engañosa o errónea en la que intermedia una tecnología ha cobrado bastante protagonismo en los últimos años. No solo se pueden poner rostros de personas inexistentes en escenarios reales, sino que también se pueden hacer videos en donde una figura pública diga cosas que, en realidad, nunca han salido de su boca.
Ciberdelincuentes también pueden emplear estas tecnologías para la creación de perfiles falsos en las redes sociales. Las redes GAN pueden ser empleadas para crear rostros de personas famosas, o no, y así engañar a las víctimas, persuadiéndolas de que revelen información confidencial.
Le puede interesar: ChatGPT marca el inicio de una batalla sin precedentes entre Google y Microsoft
¿Por qué no? incluso podría darse el caso de una persona que se enamore en redes sociales del rostro de alguien que nunca ha existido, que interactúe con esta y hasta cree lazos cercanos, cuando en realidad, se está relacionando con una fachada que otro ha creado.
El robo de identidad es otra de los potenciales maliciosos en los que puede emplearse esta tecnología.
“La creación de rostros similares a los de personas públicas, como pueden ser celebridades, pueden facilitar los fraudes de robo o suplantación de identidad. Pensemos en el reconocimiento facial como método de autenticación y las posibilidades que ofrecen los rostros GAN como instrumento para sortear este método de autenticación y acceder a la cuenta de un tercero. Vale la pena mencionar también que si bien muchos métodos de reconocimiento facial no funcionan bien cuando las imágenes son de baja resolución, estudios han demostrado que la tecnología GAN ha demostrado ser efectiva para mejorar la precisión de las tecnologías de reconocimiento facial ante estos escenarios. Por otra parte, también es importante mencionar que las empresas están al tanto de los riesgos y están desarrollando funcionalidades para detectar estas imágenes falsas. LinkedIn, por ejemplo, anunció en 2022 nuevas funcionalidades que utilizan Inteligencia Artificial (IA) para identificar perfiles que utilizan generadores de imágenes sintéticas mediante IA”, detalló ESET.
Recuerde que este tipo de tecnologías no son buenas ni malas en sí; su bondad o maldad radica en quienes las usan y cómo las usan.
Para evitar morder el anzuelo de quienes quieran usarlas con fines maliciosos, ESET realizó esta lista de consejos:
- Verificar la fuente: Asegurarse de que la fuente de la imagen es confiable y verificar la veracidad de dicha imagen.
- “No todo lo que brilla es oro”: desconfiar de las imágenes que parecen demasiado perfectas. Mayormente las imágenes generadas por este tipo de tecnología tienen un aspecto perfecto y sin defectos, por lo que es importante desconfiar de ellas. Si una imagen o video parece sospechoso, buscar más información al respecto en otras fuentes confiables.
- Verifica las imágenes y/o videos: Existen algunas herramientas como Google Reverse Image Search en línea que pueden ayudar a verificar la autenticidad de imágenes y videos.
- Actualiza tus sistemas de seguridad: mantén tus sistemas de seguridad al día para protegerte contra las estafas y el malware.
- Instala un software antivirus de buena reputación: no solo te ayudará a detectar código malicioso, sino a detectar sitios falsos o sospechosos.
- No compartas información confidencial: no compartas información personal o financiera con nadie que no conozcas.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.