Deepfakes en las empresas: los sistemas biométricos se destacan como una solución
Las suplantaciones de identidad cada vez son más comunes gracias a los avances y la accesibilidad de la inteligencia artificial. En el sector empresarial, se han convertido en un mecanismo para desarrollar tecnología maliciosa.
Juan Carlos Becerra
La siguiente situación sucedió en Hong Kong a comienzos de 2024. Un trabajador financiero de una multinacional asistió a una videollamada con lo que parecían ser sus colegas, incluyendo al director financiero de la empresa. Todo parece normal, hasta que, sin saberlo, es víctima de una sofisticada estafa. Ciberdelincuentes utilizaron tecnología con inteligencia artificial generativa para crear deepfakes de manera suprarrealista de los participantes de la reunión. La imagen pareció tan legítima que engañó al funcionario para que transfiriera USD $25 millones. Este caso, reportado por la policía de Hong Kong, es solo uno de varios incidentes en los que los deepfakes han sido utilizados para manipular videos y estafar a empresas.
El funcionario aseguró que en un principio sospechó de la solicitud, pero descartó las dudas cuando observó las imágenes y voces perfectamente imitadas. No fue hasta después de realizar la transacción que decidió consultar con la oficina central, en Reino Unido, y descubrió que había sido víctima de una gran estafa.
Este tipo de incidente pone en evidencia los peligros crecientes que las empresas enfrentan con la sofisticación de las tecnologías generadoras de deepfake. Ya no se trata solo de manipular videos para entretenimiento o desinformación, sino de poner en riesgo millones de dólares y la seguridad de las corporaciones.
La situación, además, plantea la necesidad urgente de implementar medidas robustas de seguridad, como la biometría avanzada, para prevenir este tipo de fraudes en el entorno empresarial.
Le recomendamos leer: El ransomware evoluciona: estas son las nuevas tácticas de los ciberdelincuentes
En agosto de 2024, un informe de iProov, proveedor de soluciones de ciberseguridad, reveló que el riesgo de los deepfakes está en aumento. Casi la mitad de las organizaciones (47 %) han detectado al menos un deepfake, mientras que el 70 % de ellas cree que los ataques de este tipo, generados mediante IA, tendrán un impacto significativo en su operación.
A pesar de la creciente amenaza, la percepción sobre la inteligencia artificial sigue siendo positiva. El 68 % de las organizaciones reconoce que la IA contribuye a la creación de amenazas cibernéticas, pero un 84 % considera que también es esencial para la defensa contra ellas.
El estudio global, titulado The Good, The Bad, and The Ugly, recoge las opiniones de 500 líderes empresarios en tecnología de países como Reino Unido, EE.UU., Brasil, Australia, Nueva Zelanda y Singapur. Los resultados revelan que el 75 % de las organizaciones están implementando soluciones biométricas para combatir los deepfakes. Sin embargo, el 62 % de los encuestados expresó preocupación, temiendo que su empresa no esté tomando la amenaza con la seriedad necesaria.
Aunque las organizaciones ven en la IA un aliado para mejorar la eficiencia, reconocen que también está siendo utilizada por actores maliciosos. Por esta razón, casi el 73 % ya está implementando medidas para enfrentar esta amenaza. Aun así, existe un consenso general sobre la insuficiencia de los esfuerzos actuales para mitigar el impacto de los deepfakes en la ciberseguridad.
“Hemos estado observando los deepfakes durante años, pero lo que ha cambiado en los últimos seis a doce meses es la calidad y la facilidad con la que pueden ser creados y causar destrucción a gran escala tanto en organizaciones como en individuos”, dijo en el informe Andrew Bud, fundador y CEO de iProov. “Con la rapidez con la que el panorama de amenazas está innovando, las organizaciones no pueden permitirse ignorar las metodologías de ataque resultantes”, agregó.
En este contexto de amenazas en constante evolución, las tácticas de ataque, están empezando a reflejar métodos comunes en el fraude de identidad. Actualmente, los deepfakes ocupan el tercer lugar en la lista de preocupaciones más frecuentes para los encuestados, junto con las brechas de contraseñas (64 %), el ransomware (63 %) y los ataques de phishing (61 %).
¿Cómo está la situación en Latinoamérica?
En el caso de América Latina, el estudio reveló que el 53 % de las organizaciones han reportado haber encontrado un deepfake, una cifra que es superior a la de América del Norte (34 %). Sin embargo, cuando se trata de la preocupación por el impacto futuro de estos ataques, solo el 54 % de las organizaciones en Latinoamérica creen que los deepfakes afectarán a su organización, un porcentaje significativamente menor en comparación con otras regiones como Asía (81 %) y Europa (72 %).
“Lo que me preocupa es que Latinoamérica ve el concepto del deepfake como algo de entretenimiento, algo chistoso, y no se dan cuenta de los peligros de su uso de forma maliciosa. Necesitamos estar más conscientes de lo que puede y debe hacer estas herramientas con IA”, manifestó Daniel Molina, Vicepresidente de iProov en diálogo con El Espectador.
Otra problemática que surge alrededor de los de las tecnologías de inteligencia artificial generativa son los alcances y el fácil acceso a ellas. “Con lo que te compras en una cena en Crepes & Waffles, también puedes comprar una herramienta para desarrollar imágenes muy realistas. Estamos colocando un arma digital muy poderosa en las manos de cualquiera. Eso genera preocupación”, afirmó Molina.
La inteligencia artificial para contrarrestar la IA
“Necesitas inteligencia artificial para detectar la inteligencia artificial. Suena medio raro, pero el ser humano normal común y corriente, incluso en ocasiones el experto, ya no pueden identificar a una persona” explicó Molina.
Le podría interesar: Transformación digital: cómo la IA está impactando en la conectividad y las redes
Con los avances y la aceleración en la competencia por mostrar las innovaciones más sorprendentes, cada vez es más difícil identificar un generación artificial. A pesar de lo anterior, las organizaciones reconocen que la IA generativa contribuye a la solución de problemas y creen que su impacto en el futuro será más positivo que negativo. De acuerdo al informe, el 83 % de las organizaciones encuestadas aumentaron su presupuesto en programas que introducen el uso de nuevas herramientas impulsadas con IA y que abordan sus riesgos.
La biometría lidera la lucha contra los deepfakes
Las soluciones biométricas se componen de un complejo sistema de inteligencia artificial que analiza las señales de las imágenes y el dispositivo para detectar indicios de falsificación. Estos algoritmos bloquean ataques conocidos, como los que se presentan ante la cámara, como máscaras o fotos, o los ataques inyectados en el flujo de vídeo, como los deepfakes.
El estudio encontró que el 75 % de las soluciones que se están implementando para abordar la amenazas de las suplantaciones en las organizaciones son soluciones biométricas.
De acuerdo con Molina, las soluciones biométricas, hasta el momento, garantizan el 99 % de precisión en la detección en caso de presentar irregularidades.
Las tres premisas que la biometría lograr aclarar y que generan la tranquilidad a los usuarios al momento de entender con otra persona a través de una pantalla son: Si es un persona viva, si es la persona correcta y si lo está haciendo en tiempo real. Molina explicó cada una:
- Confirmar que la persona está viva: Esto implica verificar que la persona no es una imagen o un video pregrabado, sino alguien real y presente.
- Verificar que la persona es quien dice ser: Asegurarse de que la identidad de la persona es correcta y no está siendo suplantada.
- Comprobar que la interacción es en tiempo real: Validar que la persona está interactuando en el momento y no se está utilizando un video pregrabado para simular una conversación en vivo.
“Con estas tres verificaciones, podemos crear una cultura de confianza y seguridad, garantizando que estamos interactuando con la persona correcta y no con un video manipulado o enviado por un estafador”, aseguró.
En Colombia, es optimista que este tipo de soluciones cada vez se están implementando más, especialmente en los gobiernos, sistemas de transporte y en grandes empresas.
“Empezamos a ver esa evolución y ese armisticio en que los malos toman un paso adelante y nosotros tenemos que alcanzarlos y superarlos para bloquearlos. Ellos buscan constantemente una nueva manera de vulnerar y nosotros estamos avanzando para contrarrestarlo. Esto es como el antivirus de 1994, todos los días tienes que estar actualizando”, concluyó.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
La siguiente situación sucedió en Hong Kong a comienzos de 2024. Un trabajador financiero de una multinacional asistió a una videollamada con lo que parecían ser sus colegas, incluyendo al director financiero de la empresa. Todo parece normal, hasta que, sin saberlo, es víctima de una sofisticada estafa. Ciberdelincuentes utilizaron tecnología con inteligencia artificial generativa para crear deepfakes de manera suprarrealista de los participantes de la reunión. La imagen pareció tan legítima que engañó al funcionario para que transfiriera USD $25 millones. Este caso, reportado por la policía de Hong Kong, es solo uno de varios incidentes en los que los deepfakes han sido utilizados para manipular videos y estafar a empresas.
El funcionario aseguró que en un principio sospechó de la solicitud, pero descartó las dudas cuando observó las imágenes y voces perfectamente imitadas. No fue hasta después de realizar la transacción que decidió consultar con la oficina central, en Reino Unido, y descubrió que había sido víctima de una gran estafa.
Este tipo de incidente pone en evidencia los peligros crecientes que las empresas enfrentan con la sofisticación de las tecnologías generadoras de deepfake. Ya no se trata solo de manipular videos para entretenimiento o desinformación, sino de poner en riesgo millones de dólares y la seguridad de las corporaciones.
La situación, además, plantea la necesidad urgente de implementar medidas robustas de seguridad, como la biometría avanzada, para prevenir este tipo de fraudes en el entorno empresarial.
Le recomendamos leer: El ransomware evoluciona: estas son las nuevas tácticas de los ciberdelincuentes
En agosto de 2024, un informe de iProov, proveedor de soluciones de ciberseguridad, reveló que el riesgo de los deepfakes está en aumento. Casi la mitad de las organizaciones (47 %) han detectado al menos un deepfake, mientras que el 70 % de ellas cree que los ataques de este tipo, generados mediante IA, tendrán un impacto significativo en su operación.
A pesar de la creciente amenaza, la percepción sobre la inteligencia artificial sigue siendo positiva. El 68 % de las organizaciones reconoce que la IA contribuye a la creación de amenazas cibernéticas, pero un 84 % considera que también es esencial para la defensa contra ellas.
El estudio global, titulado The Good, The Bad, and The Ugly, recoge las opiniones de 500 líderes empresarios en tecnología de países como Reino Unido, EE.UU., Brasil, Australia, Nueva Zelanda y Singapur. Los resultados revelan que el 75 % de las organizaciones están implementando soluciones biométricas para combatir los deepfakes. Sin embargo, el 62 % de los encuestados expresó preocupación, temiendo que su empresa no esté tomando la amenaza con la seriedad necesaria.
Aunque las organizaciones ven en la IA un aliado para mejorar la eficiencia, reconocen que también está siendo utilizada por actores maliciosos. Por esta razón, casi el 73 % ya está implementando medidas para enfrentar esta amenaza. Aun así, existe un consenso general sobre la insuficiencia de los esfuerzos actuales para mitigar el impacto de los deepfakes en la ciberseguridad.
“Hemos estado observando los deepfakes durante años, pero lo que ha cambiado en los últimos seis a doce meses es la calidad y la facilidad con la que pueden ser creados y causar destrucción a gran escala tanto en organizaciones como en individuos”, dijo en el informe Andrew Bud, fundador y CEO de iProov. “Con la rapidez con la que el panorama de amenazas está innovando, las organizaciones no pueden permitirse ignorar las metodologías de ataque resultantes”, agregó.
En este contexto de amenazas en constante evolución, las tácticas de ataque, están empezando a reflejar métodos comunes en el fraude de identidad. Actualmente, los deepfakes ocupan el tercer lugar en la lista de preocupaciones más frecuentes para los encuestados, junto con las brechas de contraseñas (64 %), el ransomware (63 %) y los ataques de phishing (61 %).
¿Cómo está la situación en Latinoamérica?
En el caso de América Latina, el estudio reveló que el 53 % de las organizaciones han reportado haber encontrado un deepfake, una cifra que es superior a la de América del Norte (34 %). Sin embargo, cuando se trata de la preocupación por el impacto futuro de estos ataques, solo el 54 % de las organizaciones en Latinoamérica creen que los deepfakes afectarán a su organización, un porcentaje significativamente menor en comparación con otras regiones como Asía (81 %) y Europa (72 %).
“Lo que me preocupa es que Latinoamérica ve el concepto del deepfake como algo de entretenimiento, algo chistoso, y no se dan cuenta de los peligros de su uso de forma maliciosa. Necesitamos estar más conscientes de lo que puede y debe hacer estas herramientas con IA”, manifestó Daniel Molina, Vicepresidente de iProov en diálogo con El Espectador.
Otra problemática que surge alrededor de los de las tecnologías de inteligencia artificial generativa son los alcances y el fácil acceso a ellas. “Con lo que te compras en una cena en Crepes & Waffles, también puedes comprar una herramienta para desarrollar imágenes muy realistas. Estamos colocando un arma digital muy poderosa en las manos de cualquiera. Eso genera preocupación”, afirmó Molina.
La inteligencia artificial para contrarrestar la IA
“Necesitas inteligencia artificial para detectar la inteligencia artificial. Suena medio raro, pero el ser humano normal común y corriente, incluso en ocasiones el experto, ya no pueden identificar a una persona” explicó Molina.
Le podría interesar: Transformación digital: cómo la IA está impactando en la conectividad y las redes
Con los avances y la aceleración en la competencia por mostrar las innovaciones más sorprendentes, cada vez es más difícil identificar un generación artificial. A pesar de lo anterior, las organizaciones reconocen que la IA generativa contribuye a la solución de problemas y creen que su impacto en el futuro será más positivo que negativo. De acuerdo al informe, el 83 % de las organizaciones encuestadas aumentaron su presupuesto en programas que introducen el uso de nuevas herramientas impulsadas con IA y que abordan sus riesgos.
La biometría lidera la lucha contra los deepfakes
Las soluciones biométricas se componen de un complejo sistema de inteligencia artificial que analiza las señales de las imágenes y el dispositivo para detectar indicios de falsificación. Estos algoritmos bloquean ataques conocidos, como los que se presentan ante la cámara, como máscaras o fotos, o los ataques inyectados en el flujo de vídeo, como los deepfakes.
El estudio encontró que el 75 % de las soluciones que se están implementando para abordar la amenazas de las suplantaciones en las organizaciones son soluciones biométricas.
De acuerdo con Molina, las soluciones biométricas, hasta el momento, garantizan el 99 % de precisión en la detección en caso de presentar irregularidades.
Las tres premisas que la biometría lograr aclarar y que generan la tranquilidad a los usuarios al momento de entender con otra persona a través de una pantalla son: Si es un persona viva, si es la persona correcta y si lo está haciendo en tiempo real. Molina explicó cada una:
- Confirmar que la persona está viva: Esto implica verificar que la persona no es una imagen o un video pregrabado, sino alguien real y presente.
- Verificar que la persona es quien dice ser: Asegurarse de que la identidad de la persona es correcta y no está siendo suplantada.
- Comprobar que la interacción es en tiempo real: Validar que la persona está interactuando en el momento y no se está utilizando un video pregrabado para simular una conversación en vivo.
“Con estas tres verificaciones, podemos crear una cultura de confianza y seguridad, garantizando que estamos interactuando con la persona correcta y no con un video manipulado o enviado por un estafador”, aseguró.
En Colombia, es optimista que este tipo de soluciones cada vez se están implementando más, especialmente en los gobiernos, sistemas de transporte y en grandes empresas.
“Empezamos a ver esa evolución y ese armisticio en que los malos toman un paso adelante y nosotros tenemos que alcanzarlos y superarlos para bloquearlos. Ellos buscan constantemente una nueva manera de vulnerar y nosotros estamos avanzando para contrarrestarlo. Esto es como el antivirus de 1994, todos los días tienes que estar actualizando”, concluyó.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.