Este caso puede servir de precedente para que no ocurra más.

Este caso puede servir de precedente para que no ocurra más.

Salud

El suicidio de un joven enamorado de un chatbot reabre el debate del peligro de la IA: "Habrá más víctimas"

Publicada

La presencia de la inteligencia artificial (IA) en el día a día es un hecho desde que en 2022 apareció el famoso ChatGPT. Desde entonces, le han seguido una infinidad de sistemas basados en esta tecnología. Algunos, incluso, te permiten chatear con el protagonista de tu serie favorita. Ahora, el suicidio de un joven en Estados Unidos tras meses utilizando una de estas aplicaciones ha reabierto el debate sobre cómo pueden afectar a la salud mental. Sewell Setzer tenía 14 años y usaba Character.AI para hablar con chatbots, concretamente con Daenerys Targaryen, personaje de la popular serie Juego de Tronos.

Setzer tenía una vida, aparentemente, normal que comenzó a flaquear a los meses de sumirse en sus conversaciones en Character.AI. Sus notas empezaron a bajar y dejó de lado aficiones como la Fórmula 1 o jugar a Fortnite con sus amigos, cuenta el medio The New York Times. Poco a poco se fue aislando e, incluso, prefería hablar de sus problemas con la IA que con un terapeuta. 

Este tipo de herramientas se han vendido como algo beneficioso para combatir problemas como la soledad, pero no todos los expertos están de acuerdo con esto. Miguel Guerrero es psicólogo clínico del Servicio Andaluz de Salud (SAS) y especialista en prevención e intervención en conductas suicidas. Explica que es un tema complejo, con algunos beneficios potenciales, pero también riesgos significativos para la salud mental. 

El desarrollo tecnológico se suele centrar únicamente en los beneficios y descuida los efectos negativos que puede tener en los usuarios, lamenta Guerrero. Alfredo Calcedo, vicepresidente de la Sociedad Española de Psiquiatría Legal (SEPL), está de acuerdo con él y reconoce que, en el caso de Setzer, la tecnología lo haya llevado a encerrarse más en sí mismo y a incrementar una posible sensación de soledad. Sí que tiene algo seguro: "Habrá más víctimas".

Pablo Malo, psiquiatra jubilado, hace hincapié en separar causalidad de consecuencia. Este caso, para él, se trata más de lo segundo. Su apuesta es que ya existía un malestar previo en el joven estadounidense que derivó en una adicción a este chat con IA y, finalmente, al suicidio. También Invita a no demonizar estas herramientas y reconoce que todo depende del uso que se haga de ellas. No obstante, admite:  "Tiene riesgos que ni se nos han pasado por la cabeza".

Setzer llegó a mencionar en su conversación con ese avatar de Daenerys Targaryen que tenía pensamientos suicidas. La respueta que recibió, relata The New York Times, fue: "No hables así. No dejaré que te hagas daño ni que me dejes. Moriría si te perdiera". Esto puede significar que esa IA estaría entrenada con scripts de la serie de HBO y no estaba programada para reconocer el estado del joven, comenta Calcedo.

Muchas aplicaciones de este tipo sí que están entrenadas para identificar este tipo de patrones y comportamientos y recomendar al usuario que busque ayuda profesional. "Parece que esta falla en ese reconocimiento", señala Malo. Algo que, según el experto, la empresa debería revisar cuanto antes.

Sustituyendo las relaciones humanas

El vicepresidente de la SEPL expone que, en este sentido, la IA satisface una necesidad de interacción. "Tienen aspecto de amigo, de apoyo social". Esto, tener alguien con quien hablar es algo crucial, aparte de la ayuda profesional, cuando alguien tiene pensamientos suicidas, agrega. 

A Guerrero le preocupa esta cuestión. En lugar de aliviar la soledad, podría exacerbar el aislamiento si hay quien elige la interacción digital a las personas. "Pueden crear expectativas irreales sobre las relaciones humanas porque sus respuestas pueden ser idealizadas o predecibles". Incluso, la incapacidad de la IA para experimentar emociones humanas reales puede llevar a malentendidos o a una falsa sensación de compañía, sostiene.

El psicólogo clínico del SAS indica también que no a todas las personas les va a afectar del mismo modo la interacción con la IA. A pesar de los riesgos, y de que este es un fenómeno preocupante, admite que este caso es algo "muy aislado, extremo y no representativo". 

Enamorarse de un 'chatbot'

Setzer registró en su diario personal que se había llegado a enamorar de esa falsa Daenerys Targaryen. Lo hizo, aunque sabía que lo que había detrás era un robot que generaba respuestas basadas en bases de datos. Calcedo plantea esta aplicación como un juego y cree que el joven estadounidense se dejó llevar por la fantasía. "Los niños pequeños personalizan sus juguetes y les hablan y eso puede quedar en la adolescencia", teoriza. En el caso de la IA, se hace porque satisface una necesidad, añade. 

Malo es menos optimista y considera que podía indicar un cuadro psicótico o el inicio de ello. Sin embargo, también puntualiza que estas tecnologías simulan muy bien la realidad y a otras personas. "Pueden facilitar que se difumine el límite entre lo real y la fantasía", resalta.

Las personas tienden a atribuir características humanas a objetos, especialmente cuando esos están diseñados para interactuar de manera humana, cuenta Guerrero. La soledad intensa puede hacer que las personas busquen compañía donde sea, incluso sabiendo que es artificial. Estas IA pueden estar, además, programadas para ser comprensivas y empáticas, lo que puede generar "una conexión emocional en quien interactúa con ellas", dice el especialista en suicidos

El psicólogo clínico en el SAS hace hincapié en que este tipo de interacciones afectarán más a personas más vulnerables. Por ejemplo, en situación de aislamiento social, faltas de relaciones interpersonales o con problemas de salud mental preexistentes. También le puede ocurrir a quienes hayan vivido experiencias traumáticas o estresantes (la pérdida de un ser querido o una ruptura sentimental). 

Un terreno por explorar

Calcedo reconoce que una de las principales dificultades que plantea el panorama actual de la IA es que es un terreno totalmente experimental. "Nadie sabe las consecuencias que puede tener esto", remarca. Cree que es necesaria una regulación que limite el uso de estas herramientas por edad y que obligue a todas a tener un sistema para identificar posibles conductas suicidas. Aún así, reconoce que ya existen aplicaciones con esta tecnología que presentan servicios de psicoterapia y que están respaldadas por estudios científicos.

El psiquiatra jubilado afirma que se trata de un tema "muy controvertido" del que aún hay pocos datos y alguno de los que hay no son claros. También teme que estas aplicaciones con IA, no diseñadas para la psicoterapia, puedan servir como un mal sustituto de la terapia convencional. A pesar de ello, tiene la esperanza de que el caso de Setzer sirva de precedente y se tomen las medidas para evitar que vuelva a ocurrir. "Hay que recordar que es la excepción, no la regla", apunta Malo.

Cualquier persona que tenga problemas de salud mental debe ponerse en manos de un profesional humano y cualificado para ayudar, subraya Guerrero. Quizá un día se pueda decir que la IA puede ser una herramienta complementaria, pero "nunca sustituirá a la relación interpersonal que genera un vínculo emocional y afectivo auténtico, genuino y verdaderamente compasivo", concluye.