Así es como usan la inteligencia artificial para robar por medio de videollamada
El deepfake, según registros, se ha implementado desde 1865 como forma de desinformación, técnica cinematográfica y para suplantar identidades.
A partir de la popularización de las inteligencias artificiales, los internautas han experimentado con ella. Desde Dinoprofesiones, hasta la creación de contenido multimedia desde cero, solo con una pequeña descripción textual. En los últimos años se ha podido comprobar de lo que es capaz la IA. Ejemplo de eso es que en redes sociales se han popularizado tendencias de artistas ya fallecidos interpretando a manera de cover canciones actuales, usando la IA y la biblioteca vocal de los artistas en plataformas como Youtube.
(Puede leer: Esta es la lista de celulares en los que dejará de funcionar WhatsApp desde junio)
Las polémicas por el uso de la inteligencia artificial no han sido pocas. Una de las más mediáticas fue la de fotografías hiperrealistas de celebridades como Donald Trump siendo perseguido por policías o la del Papa Francisco en una fiesta de electrónica, todas falsas. Siguiendo con la idea de la creación multimedia, actualmente se han registrado robos informáticos y económicos por medio de videollamadas y la utilización de la misma IA.
Según contó el diario español El Mundo, un hombre en China recibió una videollamada de su esposa por la red social de mensajería y llamadas gratis WeChat, en la que le estaba pidiendo US$3.600 dólares. Este dinero, según lo que comentó el hombre, era porque ella estaba conduciendo y se estrelló contra un auto, por lo que el dinero era para, supuestamente, mediar con el otro conductor.
El hombre de 73 años, aunque recibió la videollamada desde otro usuario diferente al de su esposa, no pensó que se podría tratar de un robo o de otra persona, pues quien se encontraba al otro lado de la videollamada tenía los mismos rasgos físicos de su señora, además de hablar con el mismo tono de voz. Esto hizo que se preocupara y le transfiriera el dinero sin darse cuenta de que estaba siendo robado.
(Puede leer: ChatGPT revela cuáles son las preguntas más curiosas que le han hecho)
Según las investigaciones llevadas a cabo por la policía china, los ciberdelincuentes habían seguido a la pareja durante un tiempo. La esposa del hombre era creadora de contenido sobre culinaria, temática y perfil popular en el país asiático, hecho que les facilitó a los ladrones poder tener el registró de voz de la mujer y modelar su rostro, hecho solamente visto en películas de espías como Misión Imposible.
Para 2022, según The Washington Post, solo en Estados Unidos se reportaron 36.000 denuncias de personas que fueron engañadas por medio de la clonación de voz, pues los ladrones, emulando la voz de seres queridos y familiares de las víctimas por medio de la inteligencia artificial, se hacían pasar por ellos y exigían cantidades de dinero y objetos de valor con la excusa de solucionar una calamidad o emergencia inmediata.
(Puede leer: ChatGPT revela cuáles son las preguntas más curiosas que le han hecho)
Las autoridades en China han hecho un llamado de atención a la población en general, recomendando no compartir información biométrica. “Sean cautelosos al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”, aseguran las autoridades.
Esta nueva técnica utilizada por los cibercriminales, ha tenido antecedentes que llegan hasta la alteración de fotografías en el siglo XVIII, cuando se retiraba el rostro de una persona en una fotografía impresa, y se remplazaba por otro con juegos visuales de perspectiva o usando otro rostro de otra fotografía.
En el cine y en el contenido multimedia también se ha empleado, con mayor tecnología y facilidades, la técnica del deepfake, pues, se usa para rejuvenecer o envejecer digitalmente a los actores, incluso, para remplazar los rostros de los actores que no puedan realizar una escena o que fallecieron en el rodaje.
A partir de la popularización de las inteligencias artificiales, los internautas han experimentado con ella. Desde Dinoprofesiones, hasta la creación de contenido multimedia desde cero, solo con una pequeña descripción textual. En los últimos años se ha podido comprobar de lo que es capaz la IA. Ejemplo de eso es que en redes sociales se han popularizado tendencias de artistas ya fallecidos interpretando a manera de cover canciones actuales, usando la IA y la biblioteca vocal de los artistas en plataformas como Youtube.
(Puede leer: Esta es la lista de celulares en los que dejará de funcionar WhatsApp desde junio)
Las polémicas por el uso de la inteligencia artificial no han sido pocas. Una de las más mediáticas fue la de fotografías hiperrealistas de celebridades como Donald Trump siendo perseguido por policías o la del Papa Francisco en una fiesta de electrónica, todas falsas. Siguiendo con la idea de la creación multimedia, actualmente se han registrado robos informáticos y económicos por medio de videollamadas y la utilización de la misma IA.
Según contó el diario español El Mundo, un hombre en China recibió una videollamada de su esposa por la red social de mensajería y llamadas gratis WeChat, en la que le estaba pidiendo US$3.600 dólares. Este dinero, según lo que comentó el hombre, era porque ella estaba conduciendo y se estrelló contra un auto, por lo que el dinero era para, supuestamente, mediar con el otro conductor.
El hombre de 73 años, aunque recibió la videollamada desde otro usuario diferente al de su esposa, no pensó que se podría tratar de un robo o de otra persona, pues quien se encontraba al otro lado de la videollamada tenía los mismos rasgos físicos de su señora, además de hablar con el mismo tono de voz. Esto hizo que se preocupara y le transfiriera el dinero sin darse cuenta de que estaba siendo robado.
(Puede leer: ChatGPT revela cuáles son las preguntas más curiosas que le han hecho)
Según las investigaciones llevadas a cabo por la policía china, los ciberdelincuentes habían seguido a la pareja durante un tiempo. La esposa del hombre era creadora de contenido sobre culinaria, temática y perfil popular en el país asiático, hecho que les facilitó a los ladrones poder tener el registró de voz de la mujer y modelar su rostro, hecho solamente visto en películas de espías como Misión Imposible.
Para 2022, según The Washington Post, solo en Estados Unidos se reportaron 36.000 denuncias de personas que fueron engañadas por medio de la clonación de voz, pues los ladrones, emulando la voz de seres queridos y familiares de las víctimas por medio de la inteligencia artificial, se hacían pasar por ellos y exigían cantidades de dinero y objetos de valor con la excusa de solucionar una calamidad o emergencia inmediata.
(Puede leer: ChatGPT revela cuáles son las preguntas más curiosas que le han hecho)
Las autoridades en China han hecho un llamado de atención a la población en general, recomendando no compartir información biométrica. “Sean cautelosos al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”, aseguran las autoridades.
Esta nueva técnica utilizada por los cibercriminales, ha tenido antecedentes que llegan hasta la alteración de fotografías en el siglo XVIII, cuando se retiraba el rostro de una persona en una fotografía impresa, y se remplazaba por otro con juegos visuales de perspectiva o usando otro rostro de otra fotografía.
En el cine y en el contenido multimedia también se ha empleado, con mayor tecnología y facilidades, la técnica del deepfake, pues, se usa para rejuvenecer o envejecer digitalmente a los actores, incluso, para remplazar los rostros de los actores que no puedan realizar una escena o que fallecieron en el rodaje.