Una tecnológica de IA demanda al Gobierno de EEUU y desata la guerra por el control de la inteligencia artificial

El enfrentamiento entre el Gobierno de Estados Unidos y la empresa de inteligencia artificial Anthropic ha escalado hasta llegar a los tribunales. Según ha explicado el experto en tecnología Jorge Morla en el programa 'Herrera en COPE' con Sofía Buera, el conflicto se originó cuando la compañía, creadora del potente modelo de IA Claude, se negó a las exigencias del Pentágono. El problema surgió cuando el Departamento de Defensa estadounidense pidió acceso total a la inteligencia artificial sin limitaciones. Anthropic se negó, estableciendo dos líneas rojas claras: no permitir que su tecnología se utilizara para la vigilancia masiva de ciudadanos ni para su integración en armas autónomas que decidan a quién matar sin supervisión humana. La respuesta del Pentágono fue incluir a Anthropic en una lista negra como "riesgo para la cadena de suministro", una etiqueta tóxica que, como señala Morla, se reserva habitualmente para empresas extranjeras. Ante esta medida, la compañía ha demandado al gobierno estadounidense, argumentando que se está violando la Primera Enmienda de la Constitución, que protege la libertad de expresión. La decisión del Gobierno ha sido calificada como "muy peligrosa" por gigantes como Microsoft, antiguos directores de la CIA y decenas de investigadores. En escritos presentados ante el tribunal, sostienen que si el Gobierno puede castigar a una empresa por su postura ética, "se está abriendo la puerta a que controle cómo se desarrolla la tecnología de inteligencia artificial". El debate de fondo, según Morla, es "quién pone los límites a la inteligencia artificial": las empresas, el ejército o los políticos. YouTube se ha convertido en la mayor empresa de medios del mundo, superando a Disney en ingresos durante el último año. La plataforma de vídeo ingresó más de 60.000 millones de dólares, consolidando un liderazgo que, según el experto, no dejará de crecer. Este éxito se apoya en la publicidad, las suscripciones y una economía paralela masiva. YouTube ha pagado ya unos 100.000 millones de dólares a creadores de contenido, lo que demuestra, en palabras de Jorge Morla, el tamaño de esa "economía paralela" que se ha formado alrededor de la plataforma y de la que viven millones de personas. Incluso medios tradicionales como la radio, tal y como apunta Sofía Buera, han encontrado en YouTube una forma de "amplificar su audiencia" y llegar a un público más joven. Sin embargo, Morla advierte de que la apuesta de la plataforma por herramientas de IA para creadores podría tener un "punto oscuro", al poner en riesgo el trabajo de las mismas personas que sostienen su ecosistema. En Europa, el debate sobre los límites de la IA se centra en los llamados 'deepfakes'. Varios países de la Unión Europea, con España y Francia a la cabeza, han acordado pedir la prohibición de los sistemas de inteligencia artificial diseñados para generar imágenes sexuales falsas de personas reales sin su consentimiento. La iniciativa busca ir a la "raíz del problema", como explicó el experto. La propuesta es clara: "hay que prohibir los sistemas de inteligencia artificial que están diseñados específicamente para crear este tipo de contenido", en lugar de castigar únicamente a quien lo difunde. Esta medida llega después de que en España se viralizaran millones de imágenes de este tipo, muchas de ellas afectando a menores de edad. Aunque la medida definitiva depende de la negociación de la nueva Ley de Inteligencia Artificial europea, sienta las bases de un debate complejo. Como concluyó Morla, los cimientos legislativos que se establezcan ahora en Europa marcarán la regulación a nivel mundial para las próximas décadas, en un intento por poner límites antes de que el fenómeno se "descontrole del todo".