¿Por qué preocupa la relación de los jóvenes con servicios de IA?
Los adolescentes están encontrando espacios de interacción cada vez más profundos con la inteligencia artificial, en servicios que promueven la conversación con personajes ficticios. ¿Qué riesgos presenta este escenario y cómo atajarlos?
Juan Carlos Becerra
La inteligencia artificial es una tecnología que avanza rápidamente a través de diferentes dispositivos y aplicaciones. Las funciones de algunos de estos servicios, que toman la forma de asistentes personalizados en dispositivos móviles o en servicios en línea, por ejemplo, han permitido que estas herramientas puedan ser percibidas por algunos más como acompañantes que como simples generadores de contenidos.
Los alcances de estos servicios y herramientas está llegando a una población especial como lo son los adolescentes. En los últimos meses, se han reportado varios casos alrededor del mundo en que los jóvenes encuentran en los chatbots de IA un espacio amigable, pero que a futuro puede convertirse en un riesgo para la salud mental de los menores.
El debate volvió a resurgir en los últimos días tras el caso del suicidio de Sewell Setzer III, un joven estudiante de 14 años que vivía en Orlando, Florida, y quién en sus últimos meses de vida compartió un tiempo significativo hablando con un chatbot de IA llamado Daenerys Targaryen, como el personaje de la saga de Game of Thrones.
Según el diario The New York Times, el joven estableció un “apego emocional” con el personaje de IA, desarrollado por Character.ai, a través del intercambio de mensajes de texto de manera continua, aislándose del mundo real: “Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”, escribió Setzer en su diario, de acuerdo con información publicada por el medio estadounidense.
Este tipo de plataformas se están convirtiendo en una especie de refugio para adolescentes que buscan aceptación y en la que pueden experimentar sus habilidades sociales. En noviembre de 2023 el servicio mencionado contaba con más de 100 millones de usuarios en el mundo, y de acuerdo con el sitio de medición SimilarWeb, tiene un tiempo de permanencia superior que ChatGPT.
Consideraciones claves en la relación de los jóvenes con la IA
Mónica Gil Ibrahim es CEO y fundadora de IBRAHIM CB, una empresa dedicada a la innovación tecnológica en la gestión del conocimiento comportamental. Además, es participante en las mesas de evaluación ética sobre inteligencia artificial y neurotecnología en UNESCO. En diálogo con El Espectador, Gil hizo varias consideraciones importantes que se deben tener en cuenta para identificar señales de posible depresión, los compromisos que deben asumir los desarrolladores de IA y el valor del acompañamiento a los menores.
Los aspectos y recomendaciones que compartió la psicóloga son:
- Los antecedentes y la inteligencia artificial como acompañante
“Lo primero que debemos mencionar es que el personaje femenino creado con inteligencia artificial no es la que hace que se suicide (en referencia al caso de Setzer). Si bien es cierto que el joven termina obsesionándose con este chatbot como lo expresan los medios, él ya tenía que tener unos cuadros clínicos considerables.
Existen factores protectores que deben desarrollarse a lo largo de la vida de las personas, especialmente para enfrentar circunstancias difíciles que pueden ser de diversa índole, como la desintegración familiar, el maltrato físico o psicológico, el abuso o el bullying. Todas estas experiencias se van acumulando, y en muchos casos, el joven empieza a apartarse de sus actividades cotidianas. Un adolescente podría tener una predisposición ser depresivo, o enfrentarse a un ambiente en el hogar poco favorable, o incluso sentir ansiedad en temas escolares. Estos factores van sumando y acumulándose hasta convertirse en un detonante, llevando a la persona al aislamiento.
Imagina que le hago una pregunta a un chatbot basado en el modelo de 1956 de Rogers, y le digo “me siento triste”. El chatbot responde: “¿Por qué te sientes triste?”. Aunque esto parece innovador, en realidad esta tecnología tiene décadas, y sigue un principio básico: hacer que el usuario se sienta escuchado. El problema con los sistemas actuales de interacción es que responden diciendo lo que el usuario quiere escuchar.
El riesgo de esta dinámica es que el usuario se aísla, porque la IA no genera juicios de valor y brinda una sensación de empatía. En cambio, en el contexto humano, muchas veces hay críticas, no hay empatía, o se da lo que llamamos invalidación emocional. Al invalidar una emoción de un adolescente de manera frecuente, es probable que en algún punto lo comience a ocultar y se aíslan. Es ahí donde la IA generativa comienza a mostrar esa empatía y se produce una disociación digital.
- El acompañamiento y las herramientas de protección
Si los padres y las escuelas estuvieran mejor preparados para detectar factores de riesgo, podrían trabajar más en desarrollar factores protectores. En el caso de los menores, uno de estos factores protectores sería controlar y restringir el uso de la tecnología y, particularmente, el tipo de uso que le dan. Esto es importante porque la tecnología puede dar una sensación artificial de tranquilidad y desconexión de la realidad, cuando lo fundamental que los jóvenes aprendan a estar presentes en el aquí y el ahora.
En el caso de Colombia, si una persona, tiene conocimiento de la intención suicida de otra persona y no alerta a los mecanismos de atención para activar las rutas de prevención del suicidio, podría enfrentarse a un proceso penal. (artículo 107 Ley 599 de 200 Código Penal).
- Las señales de alerta
Las señales de alerta incluyen muchos aspectos, especialmente en la manera en que una persona se relaciona y en sus áreas de ajuste, como el grado de aislamiento que presenta. A medida que aumentan los niveles de aislamiento, pueden aparecer cuadros depresivos, aunque estos no pueden diagnosticarse formalmente hasta que persistan al menos seis meses. Por ejemplo, si alguien pierde a un ser querido, es normal que se sienta deprimido por un tiempo. Sin embargo, si los síntomas continúan más allá de seis meses y comienzan a empeorar—como dejar de comer, evitar el contacto social, descuidar la higiene personal y perder conductas de autocuidado—, es importante estar alerta.
Como padres o familiares, debemos estar atentos a diferentes señales: cambios de humor, mayor aislamiento, dificultades en el trabajo, en la escuela o en las relaciones personales, consumo de alcohol o sustancias, baja autoestima, y una visión negativa o desesperanzada del futuro. Estos pueden ser indicios considerables de que la persona necesita ayuda.
Por eso es tan significativo compartir, hablar, escuchar y pasar tiempo con ellos, incluso en cosas simples como cenar sin celulares. La comunicación y el tiempo en familia son esenciales, especialmente hoy, cuando los jóvenes tienden a aislarse con facilidad. No siempre habrá una carta de despedida o un aviso, pero los cambios que deterioran varias áreas de su vida pueden señalar conductas depresivas, no del suicidio. Lo que se debe detectar es la depresión.
- La seguridad que deben brindar los desarrolladores de IA
Considero que los robots y la inteligencia artificial pueden ser útiles como apoyo en procesos terapéuticos y de cuidado, pero siempre bajo supervisión y no para uso autoadministrado. Debemos reflexionar sobre el impacto que estas herramientas pueden tener en el bienestar y la salud mental de las personas.
¿Dónde están las advertencias, como las que tienen los juguetes para menores de tres años, sobre posibles riesgos?, o en productos como el alcohol, donde se pregunta la edad antes de permitir su acceso. los desarrolladores deben contar con alertas para anunciar sobre los riesgos en el uso en menores de edad.
No se trata de detener el desarrollo de estas tecnologías, sino de asegurar que su avance esté orientado hacia el bienestar de la humanidad. No podemos ser tan imprudentes como para causar nuestra propia destrucción. La inteligencia artificial no debería ser vista como una herramienta negativa, sino como una extensión de nuestra creatividad y capacidad de innovación, que nos diferencia de otras especies”.
¿Qué dicen los desarrolladores de inteligencia artificial al respecto?
En el lado de los desarrolladores, El Espectador habló con Pablo Delgado, líder de marca y comunicación de Luzia, una startup española desarrolladora de un chatbot de inteligencia artificial que funciona como un asistente virtual, quien habló del compromiso en materia de seguridad y prevención de este tipo de empresas.
¿Cómo las empresas de IA pueden controlar el exceso de interacciones de menores con personajes generados?
La implementación de límites de uso y la educación respecto a la tecnología y sus usos éticos son parte fundamental de la protección de los menores. Desde la comunicación proactiva recordando a los usuarios que el chatbot no es una persona real y no reemplaza la interacción humana, hasta la implementación de límites de mensajes enviados y recibidos. Esto ayuda a asegurar que las interacciones sean controladas tanto en volumen como en profundidad.
¿Qué herramientas se podrían poner a disposición si un usuario joven presenta vulnerabilidades?
Las empresas desarrolladoras de IA debemos estar preparados para responder con sensibilidad cuando detecta expresiones de vulnerabilidad o señales de que el usuario está llevando la interacción más allá de un nivel saludable. En tales casos, nosotros sugerimos opciones de apoyo profesional, incluyendo contactos de asociaciones de salud mental y servicios de emergencia cuando es necesario.
¿Cuál es el compromiso de los desarrolladores de IA frente a los posibles riesgos que pueden presentar la excesiva interacción?
Nuestra prioridad es desarrollar funciones útiles que no fomenten la dependencia. Luzia, por ejemplo, tiene límites de uso diarios, y su capacidad de memoria es limitada para evitar conversaciones prolongadas y propiciar interacciones productivas. Este diseño ayuda a que la IA funcione como un recurso educativo y de apoyo, sin inducir relaciones o comportamientos poco saludables.
¿Qué medidas específicas se están implementando para detectar y prevenir el contenido inapropiado o potencialmente dañino generado por IA?
Constantemente exploramos y aplicamos nuevas estrategias para proteger a nuestros usuarios, especialmente a los más jóvenes. Los proveedores de modelos de IA detrás de nuestro asistente supervisan y moderan las conversaciones en tiempo real para evitar temas sensibles como contenido adulto, violencia o incitación al odio.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
La inteligencia artificial es una tecnología que avanza rápidamente a través de diferentes dispositivos y aplicaciones. Las funciones de algunos de estos servicios, que toman la forma de asistentes personalizados en dispositivos móviles o en servicios en línea, por ejemplo, han permitido que estas herramientas puedan ser percibidas por algunos más como acompañantes que como simples generadores de contenidos.
Los alcances de estos servicios y herramientas está llegando a una población especial como lo son los adolescentes. En los últimos meses, se han reportado varios casos alrededor del mundo en que los jóvenes encuentran en los chatbots de IA un espacio amigable, pero que a futuro puede convertirse en un riesgo para la salud mental de los menores.
El debate volvió a resurgir en los últimos días tras el caso del suicidio de Sewell Setzer III, un joven estudiante de 14 años que vivía en Orlando, Florida, y quién en sus últimos meses de vida compartió un tiempo significativo hablando con un chatbot de IA llamado Daenerys Targaryen, como el personaje de la saga de Game of Thrones.
Según el diario The New York Times, el joven estableció un “apego emocional” con el personaje de IA, desarrollado por Character.ai, a través del intercambio de mensajes de texto de manera continua, aislándose del mundo real: “Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”, escribió Setzer en su diario, de acuerdo con información publicada por el medio estadounidense.
Este tipo de plataformas se están convirtiendo en una especie de refugio para adolescentes que buscan aceptación y en la que pueden experimentar sus habilidades sociales. En noviembre de 2023 el servicio mencionado contaba con más de 100 millones de usuarios en el mundo, y de acuerdo con el sitio de medición SimilarWeb, tiene un tiempo de permanencia superior que ChatGPT.
Consideraciones claves en la relación de los jóvenes con la IA
Mónica Gil Ibrahim es CEO y fundadora de IBRAHIM CB, una empresa dedicada a la innovación tecnológica en la gestión del conocimiento comportamental. Además, es participante en las mesas de evaluación ética sobre inteligencia artificial y neurotecnología en UNESCO. En diálogo con El Espectador, Gil hizo varias consideraciones importantes que se deben tener en cuenta para identificar señales de posible depresión, los compromisos que deben asumir los desarrolladores de IA y el valor del acompañamiento a los menores.
Los aspectos y recomendaciones que compartió la psicóloga son:
- Los antecedentes y la inteligencia artificial como acompañante
“Lo primero que debemos mencionar es que el personaje femenino creado con inteligencia artificial no es la que hace que se suicide (en referencia al caso de Setzer). Si bien es cierto que el joven termina obsesionándose con este chatbot como lo expresan los medios, él ya tenía que tener unos cuadros clínicos considerables.
Existen factores protectores que deben desarrollarse a lo largo de la vida de las personas, especialmente para enfrentar circunstancias difíciles que pueden ser de diversa índole, como la desintegración familiar, el maltrato físico o psicológico, el abuso o el bullying. Todas estas experiencias se van acumulando, y en muchos casos, el joven empieza a apartarse de sus actividades cotidianas. Un adolescente podría tener una predisposición ser depresivo, o enfrentarse a un ambiente en el hogar poco favorable, o incluso sentir ansiedad en temas escolares. Estos factores van sumando y acumulándose hasta convertirse en un detonante, llevando a la persona al aislamiento.
Imagina que le hago una pregunta a un chatbot basado en el modelo de 1956 de Rogers, y le digo “me siento triste”. El chatbot responde: “¿Por qué te sientes triste?”. Aunque esto parece innovador, en realidad esta tecnología tiene décadas, y sigue un principio básico: hacer que el usuario se sienta escuchado. El problema con los sistemas actuales de interacción es que responden diciendo lo que el usuario quiere escuchar.
El riesgo de esta dinámica es que el usuario se aísla, porque la IA no genera juicios de valor y brinda una sensación de empatía. En cambio, en el contexto humano, muchas veces hay críticas, no hay empatía, o se da lo que llamamos invalidación emocional. Al invalidar una emoción de un adolescente de manera frecuente, es probable que en algún punto lo comience a ocultar y se aíslan. Es ahí donde la IA generativa comienza a mostrar esa empatía y se produce una disociación digital.
- El acompañamiento y las herramientas de protección
Si los padres y las escuelas estuvieran mejor preparados para detectar factores de riesgo, podrían trabajar más en desarrollar factores protectores. En el caso de los menores, uno de estos factores protectores sería controlar y restringir el uso de la tecnología y, particularmente, el tipo de uso que le dan. Esto es importante porque la tecnología puede dar una sensación artificial de tranquilidad y desconexión de la realidad, cuando lo fundamental que los jóvenes aprendan a estar presentes en el aquí y el ahora.
En el caso de Colombia, si una persona, tiene conocimiento de la intención suicida de otra persona y no alerta a los mecanismos de atención para activar las rutas de prevención del suicidio, podría enfrentarse a un proceso penal. (artículo 107 Ley 599 de 200 Código Penal).
- Las señales de alerta
Las señales de alerta incluyen muchos aspectos, especialmente en la manera en que una persona se relaciona y en sus áreas de ajuste, como el grado de aislamiento que presenta. A medida que aumentan los niveles de aislamiento, pueden aparecer cuadros depresivos, aunque estos no pueden diagnosticarse formalmente hasta que persistan al menos seis meses. Por ejemplo, si alguien pierde a un ser querido, es normal que se sienta deprimido por un tiempo. Sin embargo, si los síntomas continúan más allá de seis meses y comienzan a empeorar—como dejar de comer, evitar el contacto social, descuidar la higiene personal y perder conductas de autocuidado—, es importante estar alerta.
Como padres o familiares, debemos estar atentos a diferentes señales: cambios de humor, mayor aislamiento, dificultades en el trabajo, en la escuela o en las relaciones personales, consumo de alcohol o sustancias, baja autoestima, y una visión negativa o desesperanzada del futuro. Estos pueden ser indicios considerables de que la persona necesita ayuda.
Por eso es tan significativo compartir, hablar, escuchar y pasar tiempo con ellos, incluso en cosas simples como cenar sin celulares. La comunicación y el tiempo en familia son esenciales, especialmente hoy, cuando los jóvenes tienden a aislarse con facilidad. No siempre habrá una carta de despedida o un aviso, pero los cambios que deterioran varias áreas de su vida pueden señalar conductas depresivas, no del suicidio. Lo que se debe detectar es la depresión.
- La seguridad que deben brindar los desarrolladores de IA
Considero que los robots y la inteligencia artificial pueden ser útiles como apoyo en procesos terapéuticos y de cuidado, pero siempre bajo supervisión y no para uso autoadministrado. Debemos reflexionar sobre el impacto que estas herramientas pueden tener en el bienestar y la salud mental de las personas.
¿Dónde están las advertencias, como las que tienen los juguetes para menores de tres años, sobre posibles riesgos?, o en productos como el alcohol, donde se pregunta la edad antes de permitir su acceso. los desarrolladores deben contar con alertas para anunciar sobre los riesgos en el uso en menores de edad.
No se trata de detener el desarrollo de estas tecnologías, sino de asegurar que su avance esté orientado hacia el bienestar de la humanidad. No podemos ser tan imprudentes como para causar nuestra propia destrucción. La inteligencia artificial no debería ser vista como una herramienta negativa, sino como una extensión de nuestra creatividad y capacidad de innovación, que nos diferencia de otras especies”.
¿Qué dicen los desarrolladores de inteligencia artificial al respecto?
En el lado de los desarrolladores, El Espectador habló con Pablo Delgado, líder de marca y comunicación de Luzia, una startup española desarrolladora de un chatbot de inteligencia artificial que funciona como un asistente virtual, quien habló del compromiso en materia de seguridad y prevención de este tipo de empresas.
¿Cómo las empresas de IA pueden controlar el exceso de interacciones de menores con personajes generados?
La implementación de límites de uso y la educación respecto a la tecnología y sus usos éticos son parte fundamental de la protección de los menores. Desde la comunicación proactiva recordando a los usuarios que el chatbot no es una persona real y no reemplaza la interacción humana, hasta la implementación de límites de mensajes enviados y recibidos. Esto ayuda a asegurar que las interacciones sean controladas tanto en volumen como en profundidad.
¿Qué herramientas se podrían poner a disposición si un usuario joven presenta vulnerabilidades?
Las empresas desarrolladoras de IA debemos estar preparados para responder con sensibilidad cuando detecta expresiones de vulnerabilidad o señales de que el usuario está llevando la interacción más allá de un nivel saludable. En tales casos, nosotros sugerimos opciones de apoyo profesional, incluyendo contactos de asociaciones de salud mental y servicios de emergencia cuando es necesario.
¿Cuál es el compromiso de los desarrolladores de IA frente a los posibles riesgos que pueden presentar la excesiva interacción?
Nuestra prioridad es desarrollar funciones útiles que no fomenten la dependencia. Luzia, por ejemplo, tiene límites de uso diarios, y su capacidad de memoria es limitada para evitar conversaciones prolongadas y propiciar interacciones productivas. Este diseño ayuda a que la IA funcione como un recurso educativo y de apoyo, sin inducir relaciones o comportamientos poco saludables.
¿Qué medidas específicas se están implementando para detectar y prevenir el contenido inapropiado o potencialmente dañino generado por IA?
Constantemente exploramos y aplicamos nuevas estrategias para proteger a nuestros usuarios, especialmente a los más jóvenes. Los proveedores de modelos de IA detrás de nuestro asistente supervisan y moderan las conversaciones en tiempo real para evitar temas sensibles como contenido adulto, violencia o incitación al odio.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.