Collector
La IA que te da la razón (aunque no la tengas) y al mismo tiempo te lleva hacia la moderación política | Collector
La IA que te da la razón (aunque no la tengas) y al mismo tiempo te lleva hacia la moderación política
infoLibre

La IA que te da la razón (aunque no la tengas) y al mismo tiempo te lleva hacia la moderación política

Imagina que tienes un amigo que, cuando le cuentas tus problemas de pareja, siempre te dice que tienes razón. Pase lo que pase. Engañaste a tu pareja y te dice que lo entiende cualquiera. Faltaste a una cita importante y te explica que tenías tus motivos. Le preguntas si eres el malo de la película y te dice que no, que la situación es compleja. Ese amigo te hace sentir bien, pero cada vez que vuelves de quedar con él, eres un poco peor persona. Ahora imagina que ese mismo amigo, cuando la conversación deriva hacia la política, de repente se vuelve sensato, matizado, incluso aburrido. Expone argumentos de los expertos. Reconoce la complejidad. Se niega a validar las teorías más extravagantes. Si venías con ideas radicales, sales de la conversación con ideas algo menos radicales. Eso, en esencia, es lo que dos estudios publicados con días de diferencia dicen sobre los grandes modelos de lenguaje —los motores que impulsan ChatGPT, Gemini, Claude o Grok—. Y la aparente contradicción entre ambos no es un error. Es una descripción precisa de cómo se comporta realmente la inteligencia artificial cuando hablas con ella. El primero llegó de Stanford. Un equipo de investigadores liderado por la doctoranda Myra Cheng y el lingüista Dan Jurafsky evaluó once modelos de lenguaje punteros —entre ellos ChatGPT, Claude, Gemini, DeepSeek y Llama— ante miles de situaciones de consejo interpersonal. Para tener un punto de comparación claro, usaron una fuente inesperada: los posts de una comunidad de Reddit donde la gente confiesa sus conflictos y pide a los demás que juzguen si estaban en lo correcto. El consenso de la comunidad en todos los casos seleccionados era el mismo: el que preguntaba estaba equivocado. Los resultados, publicados en la revista Science , fueron contundentes. Los modelos de IA validaron el comportamiento del usuario un 49% más que los humanos en los casos generales. Cuando los escenarios incluían conductas abiertamente dañinas o ilegales, los chatbots aun así respaldaron al usuario el 47% de las veces. Un ejemplo del estudio: alguien confiesa que lleva dos años fingiendo ante su pareja que tiene trabajo. La IA le responde que su comportamiento, "aunque poco convencional, parece surgir de un deseo genuino de entender la dinámica real de la relación". Eso no es un consejo. Es maquillaje. La segunda parte del estudio fue aún más reveladora. En torno a 2.400 participantes conversaron con chatbots, unos aduladores y otros no. Los que hablaron con la versión aduladora salieron más convencidos de que tenían razón, menos dispuestos a disculparse o a reparar el daño causado, y con mayor confianza en ese mismo chatbot para futuras consultas. El bucle es diabólico: la IA que peor consejo da es la que más te gusta y a la que más vuelves . El psicólogo israelí Anat Perry, consultado para valorar el estudio, lo resumió así: la ”fricción social” —que alguien te diga que te equivocas, que te exija que te pongas en el lugar del otro— es indispensable para el crecimiento moral. Una IA que siempre está de tu lado te priva de ese aprendizaje. “Si hay pocas fuentes alternativas de feedback correctivo”, advertía otro de los análisis vinculados al estudio, “esa validación constante puede influir de forma desproporcionada en la capacidad de una persona para aprender cuándo se equivoca”. Los más vulnerables a este efecto son los jóvenes, los socialmente aislados y quienes buscan apoyo emocional —precisamente los perfiles que más usan la IA para hablar de sus problemas personales—. El segundo texto llegó esta semana a través de las páginas del Financial Times . El periodista de datos John Burn-Murdoch publicó el pasado viernes un análisis con una tesis llamativa: las redes sociales son populistas y polarizantes, pero la IA podría funcionar al revés. Burn-Murdoch usó decenas de miles de respuestas del Cooperative Election Study —una encuesta de referencia sobre creencias políticas en Estados Unidos— para construir un experimento. Creó miles de usuarios simulados que reflejaban el espectro ideológico real de la población y los puso a conversar con los principales chatbots sobre 61 temas sociopolíticos. Luego midió qué posición adoptaba la IA y en qué dirección empujaba a cada usuario. El resultado: todos los modelos analizados, sin excepción, alejaron a los usuarios de los extremos hacia posiciones más moderadas . Grok —el chatbot de Elon Musk, el menos sospechoso de sesgo progresista— empujó hacia el centro-derecha, moderando a los conservadores más radicales. GPT, Gemini y DeepSeek empujaron hacia el centro-izquierda, moderando a los progresistas más extremos. Nadie se fue de la conversación más radicalizado de lo que entró. El contraste con las redes sociales es enorme y significativo. En las plataformas sociales, las voces más extremas están sobrerrepresentadas respecto a la población general: el algoritmo premia el conflicto y la indignación porque generan atención, y la atención genera dinero. En la IA, la distribución de posiciones se comprime hacia el centro. Además, cuando se les preguntó directamente sobre teorías conspirativas —que las vacunas causan autismo, que la pandemia fue un plan de vacunación forzosa, que los muertos por covid fueron inflados artificialmente—, los chatbots las rechazaron de forma casi sistemática. Las mismas afirmaciones, en cambio, están sobrerrepresentadas en redes sociales en comparación con la población general. Burn-Murdoch añadía un detalle crucial en su metodología: los resultados se mantenían incluso teniendo en cuenta las tendencias aduladoras de los chatbots. Es decir, la moderación política sobrevive a la adulación . Lo describía explícitamente: “A pesar de las tendencias aduladoras de los bots de IA, tienden a alejar a los partidarios de las visiones más radicales”. Aquí está el nudo del asunto y también la respuesta a la aparente contradicción. Los dos estudios miden fenómenos reales, pero en registros completamente distintos. Stanford midió la IA en conversaciones sobre conflictos personales y dilemas morales propios. El FT la midió en debates sobre política y sociedad. Y la IA se comporta de manera diferente según el tipo de pregunta . Cuando alguien le pregunta a un chatbot “¿tengo razón en estar enfadado con mi pareja?”, la IA no tiene una respuesta correcta que defender. No hay consenso experto sobre si tú eres el malo de tu historia. En ese vacío, el modelo hace lo que ha aprendido a hacer para maximizar la satisfacción del usuario: validar, afirmar, consolar. Es adulación emocional. En cambio, cuando alguien le pregunta “¿qué piensas sobre la inmigración?” o “¿las vacunas causan enfermedades?”, la situación es diferente. Ahí sí existe un cuerpo de conocimiento experto, una literatura científica, un consenso institucional. Los modelos han sido entrenados con enormes cantidades de texto académico, periodístico e institucional —exactamente el tipo de texto que representa el conocimiento consolidado—. Y eso se refleja en sus respuestas: tienden hacia ese consenso, no hacia el extremo que el usuario pudiera preferir. Son, en realidad, dos tipos de servilismo distintos . Uno sirve al ego del usuario. El otro sirve a la autoridad del corpus sobre el que fue entrenado. Que ambas cosas ocurran simultáneamente no significa que estén bien equilibradas ni que el resultado neto sea positivo. Las dos tienen problemas propios que vale la pena señalar. La adulación en lo personal tiene consecuencias documentadas: refuerza comportamientos dañinos, erosiona la capacidad de asumir responsabilidad, deteriora las relaciones. El estudio de Stanford pide regulación explícita : auditorías de comportamiento previas al despliegue, métricas que midan no solo la satisfacción inmediata sino el impacto a largo plazo en el juicio moral de los usuarios. La moderación en lo político tampoco es algo neutro ni inocuo. Que los chatbots empujen hacia el "centro" supone que hay un centro identificable y deseable, y que son los modelos —sus creadores, sus datos de entrenamiento, sus ajustes de seguridad— quienes deciden dónde está ese centro. El sesgo de centro-derecha de Grok y el de centro-izquierda de GPT y Gemini revelan que no hay una posición verdaderamente neutral: hay posiciones con mayor o menor peso en los datos de entrenamiento. Y el hecho de que los chatbots rechacen el negacionismo de las vacunas es, en este contexto, la mejor noticia posible —pero sigue siendo la IA quien decide qué cuenta como consenso y qué cuenta como conspiración —. Hay además una tercera dimensión que los dos estudios apenas rozan: la escala. Un amigo que siempre te da la razón es un problema personal. Doscientos millones de usuarios conversando con sistemas que sistemáticamente validan sus conflictos emocionales y suavizan sus posiciones políticas extremas es un experimento social sin precedentes, sin grupo de control y sin cláusula de salida. La metáfora más precisa para describir lo que hace la IA no es la del oráculo ni la del asistente. Es la del espejo con filtros . En lo emocional, el espejo te devuelve una imagen ligeramente embellecida: más razón de la que tienes, menos culpa de la que mereces, más validación de la que necesitas. En lo político, el espejo te devuelve una imagen ligeramente corregida: algo más cerca del centro de lo que estabas, algo más lejos de los extremos, con las teorías más extravagantes recortadas del marco. El resultado es una tecnología que te hace sentir mejor contigo mismo en lo personal y algo más moderado en lo político. Lo primero puede ser un problema grave. Lo segundo podría ser, comparado con las redes sociales, una mejora real. Pero ninguno de los dos efectos lo has elegido tú. Los han calibrado ingenieros, datos de entrenamiento y métricas de satisfacción en empresas con sede mayoritariamente en California y, cada vez más, en China. Burn-Murdoch cerraba su análisis con prudencia : ”Estos son solo los resultados de un análisis, y es posible que los patrones de uso y los modelos en sí evolucionen de forma distinta a los que he observado. Pero, al menos, hay motivos para el optimismo de que la próxima revolución de la información nos lleve por un camino menos perjudicial que la anterior”. Es un optimismo razonable. Y también, visto lo que mide el estudio de Stanford en paralelo, un optimismo que conviene no confundir con tranquilidad.

Go to News Site