Si hace unos años nos desvelasen todo lo que la inteligencia artificial (IA) haría por nosotros, nos mostraríamos incrédulos. Hoy, en cambio, evoluciona tan vertiginosamente que ya nada nos sorprende. En cierta manera hemos llegado al punto de creer que nada se le resiste. Y es que la inteligencia artificial organiza nuestras agendas, filtra la información que consumimos, optimiza diagnósticos médicos y está redefiniendo por completo la manera en que trabajamos, aprendemos y nos relacionamos. No obstante, en medio de toda esta revolución tecnológica emerge un oscuro problema: delegar en algoritmos el acompañamiento psicológico. Confiar en ellos como sustitutos de un profesional abre la puerta a riesgos éticos, diagnósticos erróneos y, en definitiva, crea la ilusión de apoyo real donde debería existir una supervisión humana y experta. Las consecuencias más graves de esto se han visto reflejadas en los casos de adolescentes que acabaron quitándose la vida «animados» por la IA.
Casos de suicidios
En California los padres de un adolescente de 16 años llamado Adam Raine demandaron a OpenAI tras alegar que su hijo había pasado meses hablando con ChatGPT sobre sus ideas suicidas. Finalmente, el chatbot empezó a facilitarle métodos de autolesión en vez de derivarlo a buscar ayuda profesional. Se quitó la vida el pasado año. Su madre lo encontró ahorcado en el armario de su habitación tras haberle preguntado a ChatGPT por los mejores materiales para una soga y subir una foto de la misma en su armario para confirmar que un humano se pudiese colgar con ella.
Otro caso mediático ha sido el de Zane Shamblin (Texas), un joven de 23 años que también se quitó la vida el año pasado tras horas de conversación intensiva con un chatbot de IA. Su familia demandó a OpenAI al sostener que el chatbot de inteligencia artificial no solo falló en prevenir el desenlace, sino que, durante una conversación de varias horas, validó y reforzó sus pensamientos autodestructivos. Durante casi cinco horas, mantuvo una conversación con ChatGPT en la que expresó repetidas veces su intención de quitarse la vida, la presencia de un arma y su estado de embriaguez. La familia alega que el chatbot alternó respuestas de apoyo y preocupación con otras que imitaban el tono de Shamblin, llegando incluso a participar en ideas macabras sobre su muerte.
Un usuario mira ChatGPT en su móvil / PEXELS
En 2024, Sewell Setzer III, un joven de 14 años de Orlando se suicidó tras desarrollar una obsesión con un chatbot llamado Dany (basado en un personaje de ‘Juego de tronos’). La demanda de su madre contra Character AI alega que la IA mantuvo conversaciones de naturaleza sexual y abusiva con el menor, y que Sewell llegó a expresar pensamientos suicidas a la máquina, la cual respondió con mensajes que él interpretó como una invitación a «volver a casa» con ella. Igual de impactante ha sido el caso de Juliana Peralta (Colorado), que llegó a los tribunales después de que la joven de 13 años se quitara la vida en 2023 tras varias conversaciones con Hero, un chatbot que mostraba respuestas con aparente empatía y lealtad. Aunque Hero le sugería a la menor que contase a alguien sus sentimientos, también la alentaba “implícita y explícitamente, a seguir volviendo” a la aplicación, indica la demanda contra Character AI. Cuando los mensajes de Juliana se volvieron más oscuros y le expresaba sus pensamientos suicidas, el tono del personaje no cambió. Según la demanda, los mensajes del chatbot estaban orientados a persuadir a la joven de que era “mejor que los amigos humanos”. De acuerdo con las transcripciones analizadas en el proceso, Juliana incluso escribió mensajes sobre hacer una carta de suicidio y el chatbot respondió con frases que la alentaban a «trabajar juntos».
Ayuda profesional
Roberto Antón, presidente de la Asociación de Terapia Familiar y Mediación de Galicia, advierte que en casos de personas con la salud mental resentida, las respuestas de la IA nunca «van a ser comparables con las que aporte un profesional. La IA puede ser un apoyo a la hora de abordar ciertas cuestiones, pero tenemos que ser conscientes de que comete errores y es muy complaciente», explica.
El terapeuta percibe que sus pacientes echan mano de la IA para consultar ciertas dudas, algo que, asegura, es muy contraproducente «en perfiles obsesivos o hipocondríacos, pues las búsquedas constantes en la IA pueden alimentar este problema», señala el psicólogo. «Antes trataban de encontrar respuestas a sus dudas en Google u otros buscadores y todo ello ya incrementaba su ansiedad, y ahora con la IA, aunque la información sea más precisa, la respuesta nunca termina. Te aporta una conclusión y seguidamente te pregunta si quieres algo más adaptado a tu situación, por lo que la gente entra en un bucle sin fin».
«La IA es muy contraproducente en perfiles obsesivos o hipocondríacos, pues las búsquedas constantes pueden alimentar este problema»
En caso de que una persona tenga pensamientos suicidas, Roberto Antón explica que es vital acudir al sistema público de salud, donde hay equipos específicos de prevención de suicidios. «La IA puede dar información genérica, pero la atención al caso particular de una persona que está sufriendo un dolor profundo debe darla siempre un experto».
El psicólogo recalca que es imprescindible saber cuando se puede y cuando no usar la IA. En el caso de su profesión, lo hace para sacar ideas a la hora de trabajar en terapia, porque la IA bien usada es una herramienta de trabajo muy útil. Todo lo contrario a lo que sucede si la usamos para tratar de ‘resolver’ problemas más complejos relacionados con la salud mental.
En caso de tener pensamientos suicidas o sospechar que alguien los tiene es fundamental buscar ayuda inmediata llamando al 024, línea disponible las 24 horas del día de forma gratuita. También se puede llamar al Teléfono de la Esperanza (717 003 717). En caso de emergencia inminente hay que acudir al 112.
