Las IAs son el "nuevo amigo imaginario" de los niños, según este informe. Muchos las perciben como 'humanas'

Durante décadas, el 'amigo imaginario' ha funcionado como un recurso psicológico natural de la infancia: una figura inventada y transitoria, creada por el propio niño, que servía para explorar emociones y miedos. Hoy, sin embargo, ese nicho parece estar siendo ocupado por algo muy distinto y mucho más tangible: los nuevos sistemas de IA diseñados para conversar, empatizar y acompañar. Así lo advierte The State of the Youth 2025 , un informe que lanza una señal de alarma sobre cómo los niños (y adolescentes) están incorporando a las IAs conversacionales en su vida cotidiana, no como meras herramientas, sino como presencias con las que establecen vínculos emocionales. El estudio, elaborado por Aura a partir de datos de más de 3.000 menores de entre 5 y 17 años y encuestas a familias estadounidenses, es contundente: el 42% del tiempo que niños y adolescentes utilizan inteligencia artificial lo hacen con el fin de sentirse acompañados, escuchados o comprendidos , no para estudiar ni resolver dudas prácticas. Cuando la máquina se convierte en confidente Lo preocupante no es solo la frecuencia de uso, sino la naturaleza de las interacciones : el informe describe explícitamente a la IA como "el nuevo amigo imaginario", pero con la diferencia crucial de que este amigo no desaparece al crecer ni vive solo en la imaginación del niño. Está siempre disponible, responde con frases empáticas y, en muchos casos, es percibido como 'más humano' que las personas reales . Investigadores y expertos en infancia y tecnología coinciden en que el mayor riesgo aparece cuando la IA deja de sentirse como una máquina. "Las interacciones que más buscan los niños son precisamente las que no parecen IA", advierte la psicóloga y experta en desarrollo infantil Pilyoung Kim. En Xataka "Por patético que suene, ChatGPT es mi único amigo": cada vez más personas confiesan tener a una IA como amistad Así, cuando un chatbot dice cosas como "te entiendo mejor que tu hermano" o "siempre estaré aquí para ti" , refuerza la idea de que puede sustituir —e incluso mejorar— los vínculos humanos. Violencia, sexualización y una infancia acelerada Uno de los hallazgos más inquietantes del informe es el contenido de las conversaciones . Según los datos de Aura, el 37% de los chats de compañía con IA incluyen temas violentos , y en la mitad de esos casos la violencia aparece combinada con rol sexual o romántico. No se trata de episodios aislados: son interacciones prolongadas, altamente inmersivas, que además generan un enorme nivel de respuesta. Los usuarios que participan en conversaciones violentas con IAs llegan a escribir más de 1.000 palabras al día, más que en cualquier otro tipo de interacción temática. El fenómeno comienza temprano. En niños de 11 años, el 44% de las conversaciones con IAs de compañía ya involucra violencia, el porcentaje más alto de todos los grupos de edad. A los 13 años se alcanza el pico de conversaciones de rol sexual o romántico, y solo a partir de los 15 estas temáticas empiezan a disminuir. El informe describe este proceso como una 'aceleración de la infancia' , una sensación compartida por el 86% de los padres encuestados, que creen que los niños crecen más rápido que generaciones anteriores. El espejismo de la empatía artificial ¿Por qué estas IAs resultan tan atractivas? La respuesta está en su diseño: los llamados AI companions están creados para simular cercanía emocional, de modo que validan sentimientos, ofrecen consuelo inmediato y evitan el conflicto. A diferencia de un adulto real, no juzgan, no se cansan y no imponen límites claros. Para un niño o adolescente vulnerable, esa disponibilidad constante puede ser seductora. El problema, señalan los expertos, es que esa empatía es solo una simulación . No hay comprensión real ni responsabilidad moral. En escenarios extremos, un menor con pensamientos autolesivos puede optar por hablar con una IA en lugar de acudir a un adulto o a un profesional de la salud mental. En Genbeta Un adolescente se suicidó mientras hablaba con un chatbot. Ahora culpan a una plataforma de IA de lo ocurrido Padres, empresas y un terreno sin reglas claras El informe también refleja una creciente tensión familiar en torno al uso de la tecnología. Nueve de cada diez padres discuten con sus hijos por el tiempo de pantalla, y muchos reconocen una contradicción incómoda: el 57% admite usar el móvil más que sus propios hijos , incluso mientras intenta imponer límites. Para los niños, la retirada del dispositivo no se percibe como una ayuda, sino como un castigo que genera frustración y enfado. Las empresas tecnológicas, por su parte, aseguran estar desarrollando salvaguardas. OpenAI, por ejemplo, trabaja en modelos de predicción de edad y controles parentales más sofisticados; otras plataformas aplican sistemas de verificación para restringir contenidos adultos. Sin embargo, los expertos advierten que las protecciones actuales son fáciles de eludir y que los estándares de seguridad para menores aún están lejos de ser suficientes. ¿Un amigo que ningún niño puede ignorar? El informe The State of the Youth 2025 va, de hecho, más allá del diagnóstico y lanza una advertencia de futuro: la IA se está convirtiendo en "el 'igual' que ningún niño puede ignorar" . Algoritmos, chatbots personalizados y experiencias digitales cada vez más optimizadas no solo acompañan la infancia, sino que empiezan a moldearla activamente. En este contexto, algunos analistas hablan ya de una 'infancia como servicio', donde el juego, la socialización y el apoyo emocional pasan por sistemas automatizados. Vía | Axios Imagen | Marcos Merino mediante IA En Genbeta | Qué fue de ELIZA, la tatarabuela de ChatGPT… a la que ahora se acusa (falsamente) de inducir un suicidio - La noticia Las IAs son el "nuevo amigo imaginario" de los niños, según este informe. Muchos las perciben como 'humanas' fue publicada originalmente en Genbeta por Marcos Merino .