Publicidad

Madre demanda a desarrolladores tras el suicidio de su hijo obsesionado con una IA

Los padres y amigos del adolescente notaron el apego del chico cada vez más a su teléfono y cómo se iba aislando del mundo, algo ya palpable en mayo o junio de 2023.

24 de octubre de 2024 - 01:08 a. m.
Imagen de referencia
Imagen de referencia
Foto: FreePik

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

La madre de un adolescente de 14 años que se suicidó en Estados Unidos demandó este miércoles a los desarrolladores de un chatbot basado en inteligencia artificial (IA), a los que acusa de que su hijo se obsesionara con un personaje femenino que fue creado con este programa.

Sewell Setzer III, un estudiante de 14 años radicado en Orlando, en Florida, pasó las últimas semanas de su vida hablando con una mujer, una creación de IA llamada Daenerys Targaryen, un personaje sacado de la serie de televisión ‘Game of Thrones’.

Su madre, Megan García, dijo hoy al canal CBS que lamentaba que las primeras experiencias románticas y también sexuales de su hijo - que incluían sexo explícito- fueran con un personaje ficticio.

Al parecer, el chico desarrolló un apego emocional a este bot de la aplicación web Character.ai de modelo de lenguaje neuronal, a quien le enviaba mensajes de texto constantemente, hasta el punto que comenzó a alejarse del mundo real, recoge el diario The New York Times.

Stzer confesó haber tenido pensamientos suicidas al bot y le envió un mensaje poco antes de su muerte cuando encontró el teléfono que su madre le había escondido en castigo por unos días.

La demanda contra Character.ai fue presentada por García, quien es representada por Social Media Victims Law Center, una firma conocida por presentar demandas de alto perfil contra Meta, TikTok, Snap, Discord y Roblox.

García culpa a esta compañía de la muerte de su hijo y acusa a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto podría ser peligroso para usuarios menores de edad.

El chatbot creado en la citada aplicación de juegos de rol fue diseñado para responder a los mensajes de texto y siempre en el papel de un personaje.

Se desconoce si Sewell sabía que ‘Dany’, como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una advertencia al final de todos los chats que dice: “Recuerda: ¡Todo lo que dicen los personajes es inventado!”.

Pero el chico le dijo a ‘Dany’ cuánto se “odiaba” a sí mismo y cómo se sentía de vacío y exhausto, recogió el citado rotativo.

El personaje creado se presentaba como “una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de c.ai”, sostiene la acusación.

Sus calificaciones comenzaron a resentirse cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con ‘Dany’.

Sewell escribió en su diario un día: “Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta “realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”.

Character.ai dijo hoy que lanzaría una serie de nuevas funciones de seguridad, incluida una “detección, respuesta e intervención mejoradas” relacionadas con los chats que violan sus términos de servicio y una notificación cuando un usuario haya pasado una hora en un chat.

Los padres de Sewell, preocupados por el comportamiento de su hijo, le llevaron en varias ocasiones a un terapeuta que le diagnosticó ansiedad y otros trastornos de la conducta y estados de ánimo, sumados a su síndrome de Asperger, según el citado periódico.

📧 📬 🌍 Semana a semana tendremos un resumen de las noticias que nos harán sentir que No es el fin del mundo. Si desea inscribirse y recibir todos los lunes nuestro newsletter, puede hacerlo en el siguiente enlace.

👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.

Si le interesa algún tema internacional, quiere enviarnos una opinión sobre nuestro contenido o recibir más información, escríbanos al correo mmedina@elespectador.com o aosorio@elespectador.com

Temas recomendados:

 

maría(52338)24 de octubre de 2024 - 12:43 p. m.
Qué triste :(
David(73769)24 de octubre de 2024 - 12:19 p. m.
Un mundo" moderno" lleno de adolescentes sufriendo de ansiedad, sin criterio, aislados, sin relacionarse con personas humanas, nada esperanzador para el futuro del planeta y las nuevas generaciones. Solo odios, corrupción, pesimismo, y enfermedades mentales
  • Amante del Espresso(46585)24 de octubre de 2024 - 02:20 p. m.
    Incluyendo guerras por todos lados, amenazas nucleares y K-pop.
Mar(60274)24 de octubre de 2024 - 01:52 a. m.
Parece que Dany lo comprendía más.
Mar(60274)24 de octubre de 2024 - 01:51 a. m.
O sea que la enfermedad está en las sábanas?
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar