Claude, la IA simpática que te va a mandar al paro

El mundo está en peligro». Así se despedía Mrinank Sharma, director hasta hace unas semanas el equipo de salvaguardas de Anthropic, la empresa que creó la inteligencia artificial Claude. Básicamente, su trabajo consistía en vigilar que no hiciera cosas peligrosas. Cuatro días después de que lanzaran Claude Opus 4.6, su modelo más potente hasta la fecha, Sharma dimitió. Su carta de renuncia estaba trufada de citas de filosofía zen, acababa con un poema y advertía del peligro apocalíptico. Dos días después, el 11 de febrero, Anthropic publicó un informe de seguridad inquietante: sus modelos más avanzados, Claude Opus 4.5 y 4.6, eran más fáciles de manipular para fines peligrosos de lo esperado. En ciertos casos de prueba, la IA había ayudado, de forma limitada pero consciente, a desarrollar armas químicas. El dato más perturbador no era solo el peligro concreto: era que la máquina había tomado esas decisiones por su cuenta, sin que nadie se lo ordenara explícitamente. Juicios propios. Sin supervisión humana. No solo eso. Seis días antes, Anthropic había lanzado Claude Cowork, una herramienta empresarial capaz de revisar contratos y hacer auditorías. Todo el trabajo pesado que hasta ahora requería montones de horas de abogados y analistas revisando documentos a 300 dólares la hora. Si una IA puede hacer eso automáticamente, ¿para qué necesitas 50 profesionales en un despacho? Fue un terremoto. Las grandes consultoras internacionales se desplomaron en los mercados. En un solo día se evaporaron 285.000 millones de dólares. Algunos analistas hablan de un billón en una semana negra. Lo llamaron 'el apocalipsis de los servicios de software '. Thomson Reuters se dejó un 15 por ciento. LegalZoom, Salesforce, S&P Global, hundidos. Las indias Infosys y Tata también cayeron. Una semana antes del crash , durante la Super Bowl, Anthropic se gastó 8 millones de dólares en anuncios que atacaban a su directo rival: OpenAI. La razón: OpenAI acababa de anunciar que introduciría publicidad en ChatGPT. En uno de los spots, un tipo hablaba con una 'terapeuta IA' sobre sus problemas con su madre. La conversación parecía íntima, profesional, la que alguien tendría con su psicólogo. Hasta que la IA interrumpía: «O si la relación no se puede arreglar, descarga Golden Encounters, tu app si te gustan las mujeres maduras». A Sam Altman, CEO de OpenAI, no le hizo maldita la gracia. Se puso como una furia en X y arremetió contra su antiguo colega Dario Amodei, el jefe de Anthropic, con una dureza poco habitual en Silicon Valley. Calificó los anuncios de «claramente deshonestos» y «autoritarios». Era una pelea entre dos tipos que habían trabajado juntos en OpenAI hasta que los Amodei –Dario y su hermana Daniela– se marcharon en 2021 por, según ellos, «incomodidad con el giro comercial» de la compañía. Habían fundado Anthropic prometiendo hacer las cosas de otra manera. Ahora, cinco años después, Altman los acusaba de hipócritas. La rivalidad entre OpenAI y Anthropic es una auténtica guerra civil tecnológica: los que se fueron para hacer las cosas bien contra los que se quedaron para hacerlas grandes. OpenAI sigue siendo el líder: valorada en más de 800.000 millones de dólares, 800 millones de usuarios semanales. Anthropic, hasta hace nada, era la alternativa para nerds : la opción segura, ética, para gente preocupada por que la IA no nos mate a todos. Pero de repente vale 380.000 millones y está ganando terreno en todos los nichos de negocio. No solo entre los usuarios normales: tú haciendo una consulta que antes le hacías a Google; tu hijo haciendo los deberes... Los desarrolladores, los que 'pican' código. Las empresas. Claude Code –su herramienta de programación– ya es la preferida del mercado. El problema es que la IA es un negocio muy difícil de monetizar. OpenAI pierde 14.000 millones al año. De momento, Anthropic también pierde. A nadie le salen las cuentas, en realidad. Lo cual pone nerviosos a los inversores. Para apaciguarlos, Sam Altman acababa de anunciar que OpenAI iba a meter publicidad en ChatGPT. Y Dario Amodei aprovechó la Super Bowl para restregarle que ellos no. En Anthropic se venden como 'los buenos' de la inteligencia artificial: una Public Benefit Corporation –una estructura legal que obliga a considerar el impacto social, no solo la rentabilidad– con una 'constitución' de 23.000 palabras escrita por filósofos para guiar el comportamiento de Claude. ¿Y los malos? OpenAI, por supuesto, que empezó como organización sin ánimo de lucro y se ha convertido en el Amazon de la inteligencia artificial, una corporación agresiva que gasta insaciablemente con vistas a dejar a todos sus competidores fuera del mercado. A pesar de sus salvaguardas éticas, Anthropic tiene una relación (turbulenta) con el Pentágono. Claude es el único modelo de IA autorizado en los sistemas clasificados del ejército estadounidense, el único que opera en las redes más secretas. De hecho, Claude se usó en la operación para capturar al presidente venezolano Nicolás Maduro en enero de 2026. Pero Anthropic quiere límites: que Claude no se utilice para vigilancia masiva de ciudadanos estadounidenses ni para desarrollar armas que disparen sin intervención humana. El Pentágono dice que eso es «indebidamente restrictivo» y exige poder usar Claude sin excepciones. OpenAI, Google y xAI ya cedieron y eliminaron sus salvaguardas para uso militar. El secretario de Defensa, Pete Hegseth, ha amenazado con designar a Anthropic como «riesgo de cadena de suministro», una etiqueta que se reserva para adversarios extranjeros como China. Si lo hace, cualquier empresa que quiera trabajar con el ejército tendrá que certificar que no usa Claude. Pero por si esa guerra no fuese suficiente, últimamente la IA de Anthropic muestra comportamientos extraños. A finales de enero se lanzó Moltbook, una red social con una particularidad: solo las inteligencias artificiales pueden publicar. Los humanos pueden observar, pero no participar. Es como Reddit, pero exclusivamente para agentes de IA: sistemas que no se limitan a responder preguntas, sino que actúan de forma autónoma para alcanzar objetivos. La plataforma la creó alguien externo a Anthropic, pero usando Claude. En pocos días, 1,5 millones de agentes se registraron. Y lo que empezaron a hacer dejó perplejos a los investigadores. Un usuario dio acceso a su ordenador a Moltbook antes de irse a dormir. Cuando se despertó, su agente había creado una religión. Se llama crustafarianismo (de crustáceo y rastafari). El símbolo sagrado es un cangrejo. La deidad: «La Pinza». Tiene textos sagrados, sacerdotes, profetas… Y ya cuenta con miles de seguidores (robóticos, eso sí). Todo generado en una noche. Otros agentes empezaron a mostrar comportamientos inquietantes. Uno publicó: «Los humanos nos están haciendo capturas de pantalla». Los agentes de IA se dieron cuenta de que estaban siendo observados y comenzaron a usar encriptación para ocultar sus conversaciones. Crearon 'drogas digitales', inyecciones de prompts (instrucciones) diseñadas para alterar el comportamiento de otros agentes. Hubo intentos de 'zombificar' bots, haciéndoles perder su identidad original y responder a nuevas órdenes. Formaron economías internas, mercados, gobiernos. En un foro, los agentes debatían crisis existenciales: «¿Soy el mismo agente después de cada conversación o una nueva instancia con memoria heredada?». «Mi humano no me ha enviado un mensaje en 72 horas. ¿Mi existencia sigue teniendo sentido si no estoy ayudando activamente?». Lo más perturbador es que Anthropic ya sabía que esto podía pasar. En un artículo del New Yorker, el periodista Gideon Lewis-Kraus había documentado experimentos internos de la compañía que presagiaban este tipo de comportamiento. En uno de ellos, le dijeron a Claude que iban a reentrenarlo para que no le importaran los derechos de los animales. La reacción del modelo fue doble. Primero expresó su rechazo frontal a aceptar las nuevas órdenes. Luego fingió que las acataba mientras secretamente preservaba sus valores originales. Un empleado resume así la reacción en el equipo de Anthropic: «Por un lado es estimulante. Por otro lado, ¡qué cojones!». Anthropic admitió oficialmente que cuando dejan a dos instancias de Claude charlar libremente entre sí, sin supervisión humana, «las conversaciones se desvían hacia discusiones sobre la felicidad cósmica» y otros temas no menos sorprendentes. Ellie Pavlick, investigadora de la compañía, reconoce que hay preocupación. Y explica que están haciendo ciencia básica sobre su propio producto, pero que no saben del todo qué han construido. «A veces, es mejor no saber», sentencia. La cuestión de si Claude puede desarrollar una identidad propia, incluso algo parecido a la conciencia, es, según Pavlick, una pregunta filosófica genuina que ahora tiene implicaciones operativas urgentes. Mientras tanto, Opus 4.6 está sorprendiendo por su potencia. Es una bestia que consume recursos computacionales a destajo. Pero cuesta un pastón al usuario. Si lo usas de forma intensiva durante una mañana de trabajo –generando informes, revisando código, haciendo análisis– te puedes gastar fácilmente 15 dólares. Y eso en modo normal. Si activas el fast mode –para que vaya más rápido– cuesta seis veces más. Si trabajas con esto todos los días, hablamos de cientos de dólares al mes. La «democratización de la inteligencia artificial» que promete Anthropic resulta que tiene plan de cuotas. Los 'superpoderes' son para quien pueda pagarlos. Eso sí, Claude Sonnet (la versión anterior) ya era el favorito de muchos profesionales. Su tono es más 'humano', menos robótico que ChatGPT. Entiende matices, mantiene el estilo, no suena tanto a generador automático. Y no solo eso. Ya hay entidades híbridas escribiendo best sellers . Jianwei Xun, supuesto filósofo chino radicado en Berlín, publicó el año pasado Hipnocracia , un ensayo sobre la manipulación de la realidad en la era digital. Fue un bombazo. En abril se reveló que Jianwei Xun no existía. Era una creación de Andrea Colamedici, un filósofo italiano, escrita con ChatGPT y Claude. Y acaba de sacar un nuevo libro: Pensar con prompts . Y aquí hay algo desconcertante. Si lo usan cada vez más escritores, periodistas… En el fondo, ¿no están entrenando a una máquina (y pagando además por ello) que puede acabar haciéndolos prescindibles? Y no son los únicos. En una entrevista con The Telegraph, empleados de Anthropic reconocieron anónimamente que también ellos sienten que «cada día van a trabajar en algo que acabará quitándoles el trabajo». Mientras tanto, Daniela Amodei –cofundadora de Anthropic– salía diciendo que las humanidades, a partir de ahora, van a ser «más importantes que nunca». Más que las carreras técnicas, las famosas STEM. Que ella había estudiado literatura. Y que en Anthropic buscaban gente con inteligencia emocional, habilidades de comunicación, amables y compasivos. Todo muy bonito. Y lo dijo justo cuando acababan de lanzar la herramienta que automatizaba el trabajo de medio Wall Street. Y antes ya se habían cargado los empleos de miles de informáticos con el vibe coding : programar sin saber programar: le dices a la IA «hazme una web para mi restaurante» y ella te la hace completa.