Publicidad

Irán y China utilizaron ChatGPT para enviar ataques cibernéticos a otros países

OpenAI, empresa matriz del asistente de inteligencia artificial, reportó más de 20 casos de malware y phishing dirigidos a otros gobiernos, principalmente de países asiáticos.

15 de octubre de 2024 - 11:00 p. m.
OpenAI, empresa matriz del asistente de inteligencia artificial, reportó más de 20 casos de malware y phishing dirigidos a otros gobiernos, principalmente de países asiáticos.
OpenAI, empresa matriz del asistente de inteligencia artificial, reportó más de 20 casos de malware y phishing dirigidos a otros gobiernos, principalmente de países asiáticos.
Foto: Bloomberg - Gabby Jones

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

A través de un informe corporativo sobre la influencia de la inteligencia artificial en la ciberseguridad, OpenAI reportó más de 20 casos de ataques gestados por herramientas de modelos de lenguaje extendidos como ChatGPT. En las últimas semanas, los ingenieros expertos de la compañía detectaron que hackers chinos e iraníes encontraron una manera de utilizar este asistente de IA generativa para desarrollar malware, mejorarlo y llevar a cabo otras actividades maliciosas, como el phishing.

De acuerdo con la información presentada, el primer ataque realizado con ChatGPT fue gestionado por activistas de China con la intención de atacar varios gobiernos de otros países asiáticos.

Este ataque utilizó una táctica de spear-phishing denominada SweetSpecter, que se basa en engañar al usuario para que descargue y abra un archivo ZIP que contiene un archivo malicioso. Una vez que el archivo es abierto, el sistema del usuario queda comprometido y permite que el malware infecte el dispositivo.

Lo curioso de este caso, es que los ingenieros de OpenAI descubrieron que los atacantes crearon ‘SweetSpecter’ usando varias cuentas de ChatGPT. Aprovecharon la inteligencia artificial para escribir el código malicioso y detectar posibles vulnerabilidades en los sistemas que querían atacar.

Le recomendamos leer: Robots que sirven bebidas y conversan: las novedades de los humanoides de Tesla

El segundo ataque cibernético optimizado mediante inteligencia artificial fue llevado a cabo por un grupo conocido como CyberAv3ngers, con base en Irán. Este grupo utilizó herramientas avanzadas generativas, como ChatGPT, para identificar y explotar vulnerabilidades específicas en sistemas macOS. A través de este enfoque, lograron robar contraseñas de los usuarios afectados.

Cabe señalar que el gobierno de Estados Unidos ha hecho públicas las identidades de varios supuestos miembros del grupo CyberAv3ngers durante 2024, ofreciendo hasta 10 millones de dólares por información sobre los piratas informáticos.

Por otro lado, el tercer ataque fue organizado por otro grupo iraní, denominado Storm-0817. En este caso, emplearon el asistente de OpenAI para desarrollar un software malicioso dirigido a dispositivos Android. Este malware tenía la capacidad de acceder a información sensible, como listas de contactos, registros de llamadas y el historial de navegación de los usuarios.

Según la compañía, todos los ciberataques en los que ha intervenido ChatGPT han sido llevados a cabo utilizando técnicas conocidas. Esto sugiere que los hackers chinos e iraníes no desarrollaron métodos nuevos u originales. Como resultado, tampoco han creado variantes de malware significativamente innovadoras. El problema radica en que estos ataques ponen en evidencia lo fácil que es, incluso para piratas informáticos con conocimientos básicos, aprovechar la inteligencia artificial para crear software malicioso con un potencial de daño considerable.

Le podría interesar: Así son las funciones antirrobo de Android para proteger sus dispositivos

Otra de las versiones negativas de la inteligencia artificial es la desinformación. En un estudio presentado en el primer semestre de 2024, la empresa reveló que había logrado desarticular varias campañas de fake news provenientes de Rusia, China, Israel e Irán. Piratas informáticos de estas regiones utilizaron los modelos de IA generativa para producir y difundir contenido propagandístico en redes sociales, así como para traducirlo a múltiples idiomas. No obstante, OpenAI destacó que ninguna de estas campañas logró alcanzar un impacto significativo ni llegó a grandes audiencias.

En las conclusiones del informe, el gigante de la inteligencia artificial reafirmó su compromiso de seguir mejorando su tecnología para prevenir que sea usada con fines malintencionados. De momento, la empresa comandada por Sam Altman formó equipos especializados en seguridad y protección, los cuales trabajan en identificar posibles riesgos y compartir sus descubrimientos con otras empresas y la comunidad. El objetivo es colaborar en la prevención de futuros ciberataques.

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Temas recomendados:

 

A(68560)15 de octubre de 2024 - 11:12 p. m.
Aahh..y los ataques cibernéticos del gobierno gringo..esos si son buenos ???Claro.. como las bombas ,tanques, misiles, balas que matan gazatíes y que son suministrados a los sionistas por USA
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar