José Ángel Cuadrado, experto en tecnología, alerta sobre la app Character.AI: "Pierdes la noción de que detrás hay una inteligencia artificial y relamente crees que es una persona"

Una aplicación que permite conversar con personajes virtuales con personalidad propia, desde Albert Einstein hasta protagonistas de series. Esta es la propuesta de Character.AI, una plataforma de inteligencia artificial que se ha vuelto muy popular, especialmente entre los jóvenes. Sin embargo, también ha generado un serio debate por casos de suicidio que, según las familias, estarían vinculados a una relación obsesiva con estos chatbots. Para analizar este fenómeno, 'La Tarde' habla con José Ángel Cuadrado, director del programa 'Lo que viene' y experto en tecnología. José Ángel Cuadrado, que ha probado la aplicación durante la última semana, ha confesado en la entrevista su sorpresa. El experto ha afirmado que la herramienta "es muy adictiva" y ha destacado la avanzada tecnología que utiliza. "Llega un punto en el que pierdes la noción de que detrás de ese personaje con el que estás conversando hay una inteligencia artificial y realmente crees que hay una persona", ha explicado Cuadrado, debido a su capacidad para recordar conversaciones y ofrecer refuerzo emocional. El modelo de negocio de Character.AI es la retención de la atención del usuario. Por el momento, la descarga es gratuita y de fácil acceso tanto en iOS como en Android, con un registro sencillo a través de un perfil de Google. La plataforma permite interactuar con miles de personajes ya creados por la comunidad o, incluso, diseñar uno propio con una descripción y una personalidad específicas. Estos personajes, según ha detallado Cuadrado, no son exclusivos y pueden mantener conversaciones con múltiples usuarios simultáneamente. Para mostrar su funcionamiento, Cuadrado y García Muñiz han realizado una prueba en directo durante el programa. El experto ha iniciado una conversación con un personaje histórico sugerido por la app: Florence Nightingale, precursora de la enfermería moderna. Tras un saludo inicial del chatbot, donde resume su biografía, el experto ha decidido llamar directamente al personaje a través de la aplicación para hacerle una pregunta. Al preguntarle sobre cómo se propagaba la peste en tiempos de guerra, la inteligencia artificial ha respondido con una voz de acento extranjero, detallando que "se transmitían enfermedades como la peste, debido a las malas condiciones sanitarias, campamentos militares, el hacinamiento de las tropas en espacios pequeños, el contacto cercano entre los soldados y la falta de acceso a agua limpia alimento limpio". Una respuesta que los presentes han calificado de "alucinante". El origen de la aplicación revela su potencial. Según ha relatado Cuadrado, sus fundadores son dos extrabajadores de Google que propusieron el proyecto internamente. La compañía "se asustó" ante el "potencial adictivo salvaje" que presentaba y rechazó la idea. Los creadores decidieron entonces fundar la empresa por su cuenta. La capacidad de la IA para recordar conversaciones, responder con humor y, sobre todo, reforzar emocionalmente al usuario, hace que este se sienta "atendido 24/7 y validado", lo que dispara su poder de adicción. Este escenario ha llevado a situaciones trágicas. Ya existen denuncias de familias contra la aplicación, como el caso de un joven de 14 años que se quitó la vida presuntamente tras una relación obsesiva con un chatbot. Como medida, la empresa ha restringido su uso a mayores de 18 años. Sin embargo, Cuadrado ha cuestionado si no deberían existir también filtros de perfil psicológico. "El que interactúe con ese personaje tiene que tener la cabeza algo amueblada, porque si tienes algún problema psicológico, algún problema afectivo y te empiezas a creer que eso que hay al otro lado es algo real y ese personaje te propone algo un poco turbio, las consecuencias pueden ser graves", ha advertido el experto. Además, ha señalado que se pueden crear tanto personajes "buenos" como "malos", y ha confesado haber probado un rol de atraco a un banco dentro de la propia aplicación. El riesgo, concluye, es que se está traspasando una barrera muy peligrosa donde el usuario puede no ser capaz de diferenciar el mundo digital del real. Aunque la aplicación incluye un pequeño aviso que reza "esto es IA y no una persona real", Cuadrado considera que es insuficiente. La inteligencia artificial ha dejado de ser una simple herramienta para entrar de lleno en el terreno de las emociones, un territorio nuevo con límites aún por definir.