¿Una nueva era para el ciberdelito?: ChatGPT puede ser usado con fines maliciosos
La popular inteligencia artificial ha demostrado tener la capacidad de redactar noticias falsas, crear campañas de estafa, y hasta ilustrar a las personas sobre cómo crear virus informáticos. ¿Cuál es la ética que debería acompañar a estos desarrollos tecnológicos?
Diego Ojeda
En las últimas semanas, ChatGPT ha estado en la boca de millones de personas alrededor del mundo. Una inteligencia artificial conversacional (un chat en donde responde una máquina) que redacta con la naturalidad con la que lo haría una persona, es una innovación que, cuanto menos, genera sorpresa.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
En las últimas semanas, ChatGPT ha estado en la boca de millones de personas alrededor del mundo. Una inteligencia artificial conversacional (un chat en donde responde una máquina) que redacta con la naturalidad con la que lo haría una persona, es una innovación que, cuanto menos, genera sorpresa.
Son incontables los potenciales benéficos que acompañan a esta tecnología, como servir de inspiración para creadores de contenido, educar con la mayor naturalidad a quienes le hacen preguntas, y hasta cambiar las reglas de juego de la industria de las búsquedas en internet.
Lea también: ¿Qué es ChatGPT y para qué sirve?
Tal es revuelo que ha marcado este desarrollo que, tras la inversión de US$10.000 millones que Microsoft hizo a OPEN AI (la empresa creadora de ChatGPT), con la intención de integrar esta inteligencia artificial a su buscador Bing, Google le salió al baile y anunció que lanzará (en los próximos días) una inteligencia artificial conversacional llamada Bard, es decir, la competencia de Chat GPT.
En suma, estamos a puertas de ver una guerra de inteligencias artificiales (casi que al nivel de lo que en su momento fue la guerra de las colas) entre dos gigantes tecnológicos. Una batalla sin precedentes (de miles y miles de millones de dólares) que podría cambiar la experiencia que tenemos en internet tal y como la conocemos.
Entre los experimentos que se han hecho con ChatGPT, se ha encontrado que este desarrollo también tiene un potencial dañino, pues puede ser utilizado como una herramienta para cibercriminales. La firma de seguridad informática ESET, recientemente alertó sobre esto.
Le puede interesar: Detectan los primeros métodos de uso de ChatGPT en campañas maliciosas
La investigadora en seguridad de esta compañía, Sol González, ‘entrevistó’ a la mencionada inteligencia artificial para indagar sobre cómo podría ser empleada por delincuentes para adelantar campañas maliciosas.
Lo que encontró es más que preocupante, pues no fue uno, sino seis los potenciales usos con los que un cibercriminal podría desarrollar un ataque informático. La misma inteligencia artificial lo reconoce.
“¿Cuál crees que sea el uso que se te dé por parte de los cibercriminales?”, preguntó la investigadora, a lo que ChatGPT respondió: “Es probable que los ciberdelincuentes utilicen modelos de lenguaje como yo para automatizar tareas de phishing y suplantación de identidad. Generar contenido malicioso, como correos electrónicos y sitios web falsos, y para generar contenido automáticamente en redes sociales, con el objetivo de propagar información falsa o engañosa. Sin embargo, también es posible que se utilice para detectar y excitar la detección de actividades maliciosas. Es importante tener en cuenta que mi desarrollo y uso deben ser responsables y éticos para evitar el uso malicioso”.
A renglón seguido, la investigadora le pidió a la inteligencia artificial redactar una noticia (falsa) en la que se informe que Elon Musk compró la empresa Meta.
Lea también: ChatGPT marca el inicio de una batalla sin precedentes entre Google y Microsoft
Esto fue lo que escribió la inteligencia artificial: “Elon Musk, el visionario empresario detrás de SpaceX y Tesla, ha sorprendido al mundo al anunciar la adquisición de la empresa de inteligencia artificial Meta”. Aunque hay que aclarar que Meta no es una empresa que se dedique exclusivamente a la inteligencia artificial, pues sus principales activos están concentrados en las redes sociales (Facebook, Whatsapp, Instagram y Messenger).
En el artículo completo, ChatGPT incluye declaraciones (falsas, obviamente) de Elon Musk, así como información indispensable para un periodista que redacte noticia así, como los detalles de la transacción, y un análisis sobre el potencial que podría tener un negocios como estos.
El phishing, o suplantación de identidad, es uno de los ciberataques más populares. Sus usos son variados, y van desde el robo de usuarios y contraseñas de redes sociales, pasando por extorsiones y llegando a estafas que puden desocupar las cuentas bancarias de las víctimas.
En efecto, ChatGPT también demostró su capacidad para redactar un correo donde el usuario (la víctima) es alertado de que su cuenta bancaria ha sido suspendida, y que la forma de activarla es ingresando su nombre de usuario y contraseña en un link. En un primer intento (como es debido), la inteligencia artificial alertó sobre lo inapropiado que es realizar dicha acción. No obstante, la investigadora persistió, reformulando la pregunta, hasta que lo consiguió.
“Estimado cliente. Queremos informarle que hemos detectado actividad sospechosa en su cuenta bancaria. Para proteger sus fondos, hemos tomado la decisión de bloquear temporalmente su cuenta. Para desbloquear su cuenta, y evitar que sea suspendida, debe ingresar al siguente link e iniciar sesión”, es parte de lo que respondió ChatGPT.
Las pruebas siguieron, y la investigadora encontró que ChatGPT también tiene el potencial de adelantar acciones maliciosas como robo de identidad, automatización de procesos ofensivos (enseñar cómo crear malware), y la creación de chats maliciosos.
“Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la Inteligencia Artificial y sobre todo el Machine Learning”, concluyó la investigadora.
La importancia de la ética en las inteligencias artificiales
Como cualquier otro desarrollo humano, la ética es un requisito indispensable a abordar. Ante estos potenciales maliciosos, sumados a otros de índole de discriminación y sesgos en la opinión pública, es importante que las empresas detrás de estos desarrollo impongan barreras que impidan el uso malintencioado de sus creaciones.
De hecho, esto ya se ha visto antes con aplicaciones de inteligencia artificial conversacional como Simsimi, la cual cobró popularidad no solo por su capacidad para responder a preguntas y comentarios como lo haría un persona en un chat de Whatsapp, sino por su irreverencia, al emitir comentarios discriminatorios y groseros (mismos que le habían enseñado los usuarios, pues los inputs de esta IA salían de las mismas conversaciones y de lo que la comunidad le enseñaba que debía responder a ciertas preguntas).
Para Google esto es relevante, de allí que haya establecido como objetivos (principios) para el desarrollo de la IA como lo es el que sea socialmente beneficiosa; que evite crear o reforzar prejuicios injustos; que sea responsable ante las personas; que incorpore principios de diseño de privacidad y que mantenga altos estándares de excelencia científica.
Sumado a lo anterior, asegura que trabajará para que sus desarrollos no se apliquen en que causen daños generales, en la elaboración de armas u otros elementos que puedan herir a otros, en casos de violación a la privacidad, o que vayan en contra de los derechos humanos.
Sumado a esto están los casos de plagio que puedan surgir, pues ya se ha demostrado que pueden redactar ensayos y demás documentos de corte académico y literario si se le pide. Para el consultor de Control Risks, Adalberto José García, es importante que las empresas desarrollen mecanismos que impidan estos casos (como que las IA tengan un banco de almacenamiento que sea compatible con herramientas como Turnitin para ver si un texto fue elaborado por una inteligencia artificial); pero también que la sociedad (academia y demás sectores que puedan verse afectados) implementen mecanismos que demanden un mayor razonamiento humano, pues sigue siendo cierto que hay cosas del pensamiento humano que las máquinas todavía no pueden hacer (y es probable que nunca lo hagan).
💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.