- Reemplazar la terapia tradicional por la IA puede derivar en dependencia, diagnósticos erróneos o el agravamiento de cuadros no tratados: “No tienen aún la capacidad crítica para detectar que se trata de una máquina y muchas respuestas están sesgadas y carecen del respaldo clínico" Uno de cada tres adolescentes con problemas de salud mental no habla con nadie sobre ello Desde hace unos días, el caso de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT ha generado una gran polémica en redes sociales. Los padres de Adam Raine presentaron hace unos días una demanda contra OpenAI y su dueño, Sam Altman, por su responsabilidad en la muerte del adolescente, al supuestamente apresurarse a comercializar la versión GPT-4o a pesar de los problemas de seguridad. Por su parte, OpenAI ha admitido fallos y ha anunciado el viernes que lanzará un control parental que permitirá a los padres supervisar el uso que sus hijos menores hacen del chatbot. La empresa explicó en una publicación que el mes que viene ya estará disponible la posibilidad de establecer límites en el uso, desactivar la memoria del chat o recibir alertas en caso de que haya consultas o conversaciones consideradas de riesgo. Este trágico caso de este adolescente ha puesto sobre la mesa una realidad que es necesario abordar: los límites y riesgos del acompañamiento emocional que puede ofrecer una Inteligencia Artificial, sobre todo en los más jóvenes. “Cada vez es más frecuente ver a pacientes que acuden a consulta con un autodiagnóstico. Antes lo hacían a través de libros de autoayuda, ahora porque se lo han preguntado a ChatGPT”, explica Amaya Prado Piña, experta en Psicología Educativa. Prado, también especializada en Psicología Clínica en Infancia y Adolescencia, pone el foco especialmente en los jóvenes y adolescentes, que son el grupo de edad más vulnerable: “No han desarrollado aún la capacidad crítica para saber y detectar que se trata de una máquina y que, por tanto, muchas respuestas están sesgadas y carecen del respaldo clínico necesario para poder ofrecer una ayuda psicológica adecuada ”, advierte. La psicóloga señala que el principal peligro es que muchos jóvenes están acudiendo a la IA para como primera opción para pedir ayuda de cualquier tipo, sin medir que delante tienen una máquina y que no es igual resolver un problema matemático o resolver una duda con evaluar una situación anímica o afectiva. “La palabra ‘inteligencia’ induce a pensar que las respuestas son cien por cien correctas, pero muchas veces las respuestas están bajo sesgos y no hay un profesional detrás”, añade. Terapeuta 'inteligente' Leyre López, científica de datos, coincide con Prado en que se trata de una herramienta cuyo funcionamiento se basa en “aprender de la información que el usuario da y que la propia IA lee”. “Por ejemplo, en función de en qué idioma le preguntes, las respuestas son diferentes. Es decir, aprende de la información a su alcance en ese idioma, por lo que en el caso de España las respuestas tienen el sesgo de lo que más se haya buscado publicado en español”, añade. Ninguna de las expertas consultadas ve lejana la idea de que la inteligencia artificial pueda convivir de cierto modo con la terapia tradicional, aunque con límites. “Puede servir de ayuda siempre y cuando no dé un diagnóstico al paciente. Es decir, puede ser un añadido, pero nunca una sustitución del trabajo profesional”, opina Prado. Para López, la clave está en que se desarrolle “una regulación adecuada y que garantice la protección del usuario”. La normalización del uso cotidiano de la inteligencia artificial se traduce en que esta se haya convertido en “un refugio cercano que da todas las respuestas que uno quiere oír”. Para la psicóloga, esto deriva en la generación de un falso refuerzo que puede traducirse en dependencia emocional. “Se ha convertido en un amigo virtual”, insiste. La inmediatez es una de las ventajas que los usuarios achacan al uso de la herramienta. “Nos hemos acostumbrado tanto a usarla que la hemos incorporado en nuestra vida de forma automática. Recibir la información de manera inmediata es uno de los síntomas del uso cada vez más frecuente de estas tecnologías”, sentencia.