Meta afronta un año crucial. Mientras sus competidores estaban poniendo los cimientos de la IA, Meta estaba quemando dinero en el metaverso . Eso, junto a un enfoque totalmente distinto a lo que Google o OpenAI estaban haciendo con la IA, provocó que la compañía de Zuckerberg haya pasado unos años a rebufo . Tras reorganizar la casa y fichar al Equipo A de la IA , Meta estaba preparando tanto un gran modelo como nuevos chips propios para el entrenamiento. La cosa… no ha salido como esperaban. MTIA . Dentro de los diferentes equipos de Meta enfocados a la inteligencia artificial, hay uno conocido como MTIA. Viene de ‘Meta Training and Inference Accelerator’ y su objetivo era investigar y diseñar chips propios de entrenamiento para la inteligencia artificial. Tener un chip propio tiene todo el sentido del mundo, ya que se diseña en función de las necesidades que tengas. Tienen otra ventaja: no dependes de nadie más. Si NVIDIA no tiene chips suficientes, da igual porque tú tienes los tuyos y puedes seguir escalando los sistemas de los centros de datos ( y los de Meta son inmensos ) para continuar las tareas de entrenamiento e inferencia. Meta no se iba a encargar de la fabricación, algo que haría la reputadísima TSMC , pero el programa empezó con mal pie. En Xataka La revolución de la IA en Meta llega hasta el hormigón: ya usan una mezcla creada por algoritmos para sus centros de datos Esto es mu’ difícil . Reuters ya lo comentó el año pasado. Tras probar su primer chip de entrenamiento desarrollado internamente, Meta se dio cuenta de que las cosas no iban bien. Tenía un rendimiento inferior a lo que esperaban, y también era peor que los de la competencia. No tiraron los chips, sino que los derivaron a otros sistemas (como los de recomendación de Facebook e Instagram basados en algoritmos). El problema es que el rendimiento del chip de entrenamiento, el realmente importante para la carrera de la IA, no era suficiente. Cambio de estrategia . En The Information se hacen eco de un comunicado de Meta en el que se apunta que la compañía sigue comprometida “a invertir en diferentes opciones de silicio para satisfacer nuestras necesidades, lo que incluye el avance de nuestra división MTIA” y nos instan a permanecer atentos a novedades que se compartirán a lo largo de este año. Sin embargo, en el mismo medio se apunta que Meta ha rebajado mucho sus expectativas con sus chips. La idea era tener dos chips. Por un lado, Iris, un chip de entrenamiento de instrucción única que es fácil de diseñar, pero al que es complicado extraer todo el jugo en esas labores de entrenamiento de inteligencia artificial . Por otro, Olympus, un chip que se completaría hacia finales de este año y que sería la parte central de los clústeres de entrenamiento de Meta. Según The Information, había muchas dudas internas sobre la estabilidad de Olympus, sobre su intrincado diseño y sobre la rentabilidad, por lo que lo han dejado en el cajón para centrarse en chips más “sencillos”. En Xataka A Sam Altman le han preguntado si entrenar a una IA no es ineficiente. Ha respondido que "entrenar" a un humano lo es más La evidencia . Al final, si no puedes con tu “enemigo”, únete a él. Las fuentes consultadas por The Information apuntan que, además de otras complicaciones, el software de entrenamiento no era tan estable como lo que ofrecen alternativas como las de NVIDIA. Y todo eso ha terminado provocando dos acuerdos milmillonarios. En un lapso de pocos días, Meta firmó acuerdos tanto con AMD como con NVIDIA para que ambas les suministren chips para entrenar a la IA. Es un win-win para todas porque Meta recibe lo que necesita, NVIDIA tiene otro cliente más en una lista que domina y AMD sigue haciéndose un hueco en el sector gracias a acuerdos como este o el que firmaron el año pasado con OpenAI . Además, Meta se asegura varias fuentes para no depender sólo de una compañía. De hecho, también se estima que han firmado un acuerdo para alquilar las unidades TPU de Google. La competencia . El objetivo de Meta, por tanto, es diversificar todo lo posible su cartera de proveedores de chips para la IA mientras sigue investigando esos chips propios de los que, supuestamente, conoceremos detalles más adelante. Puede que sigan investigando Olympus o una variante o se decidan por otro enfoque. Porque lo que está claro es que algo ‘propio’ deben desarrollar. NVIDIA y AMD son proveedores, no competencia como tal. La verdadera competencia es OpenAI, X y Google, y los dos últimos tienen sus factorías a pleno rednimiento. Google con sus TPU , procesadores pensados exclusivamente para la IA, y xAI con sus chips propios que abandonaron y retomaron más recientemente. En Xataka El secreto de TSMC cabe en un viaje de 60 minutos: por qué el modelo de Taiwán es imposible de copiar en Arizona Objetivo: destronar a NVIDIA . Y todo esto se da en un mundo en el que todos son ‘amigos’, pero enemigos al mismo tiempo. Ya digo que NVIDIA es una proveedora de hardware, pero tienen prácticamente el control del mercado de la computación de la IA y están moviéndose tanto en el hardware como en el software. Es lógico que el resto de compañías estén investigando alternativas para impulsar su propia IA. A la lista se suma una Amazon que también está fabricando unos chips llamados Trainium3 UltraServer y OpenAI con su acuerdo con Broadcom para fabricar chips . Es, como digo, un escenario curioso: todos se necesitan, y ahí está la “ economía circular ” de la IA, pero a la vez todos quieren ser independientes . El problema es que NVIDIA en esto lleva muchísima ventaja y tiene tanto la tecnología como los contratos con las empresas de memoria … y los contactos con la que termina fabricando los mejores chips: TSMC. En Xataka | Trump ordenó al Pentágono dejar de usar Claude por ser una "IA Woke". Justo después bombardeó Irán usando Claude - La noticia Meta estaba construyendo sus chips de IA para no depender de NVIDIA. Ha terminado rindiéndose ante la evidencia fue publicada originalmente en Xataka por Alejandro Alcolea .