A Anthropic prometeu contestar judicialmente uma decisão do Pentágono de declarar a empresa uma ameaça à cadeia de suprimentos dos EUA, sob uma autoridade normalmente reservada a adversários estrangeiros, intensificando um confronto com o governo Trump sobre salvaguardas de inteligência artificial. "Não acreditamos que essa ação seja legalmente sólida e não vemos outra opção a não ser contestá-la nos tribunais", disse o CEO Dario Amodei em uma publicação no blog da empresa. Mudança de estratégia: Anthropic abandona compromisso emblemático de segurança na corrida com rivais de IA Esqueça Apple, Microsoft, Google e Meta: Veja qual é hoje a maior rivalidade do mundo da tecnologia Autoridades de defesa notificaram a empresa na quarta-feira sobre a designação relacionada à cadeia de suprimentos, afirmou Amodei em sua publicação. A medida coloca em risco o contrato de US$ 200 milhões da empresa para fornecer ao Pentágono ferramentas de IA e pode impedir a Anthropic de fazer parcerias com outras empresas em projetos ligados à defesa. A decisão foi o resultado de semanas de negociações cada vez mais tensas entre Amodei e autoridades do governo sobre o acesso das Forças Armadas dos EUA à tecnologia da Anthropic. As conversas fracassaram na semana passada depois que a empresa exigiu garantias de que sua IA não seria usada para vigilância em massa de americanos nem para o emprego de armas autônomas, o que levou o secretário de Defesa, Pete Hegseth, a ameaçar a empresa com a designação de risco na cadeia de suprimentos. Embora a Anthropic ainda planeje contestar a medida, Amodei disse que o dispositivo legal invocado — a seção 3252 da lei dos EUA que regula as Forças Armadas — é suficientemente específico para evitar que afete outros negócios da Anthropic que não estejam relacionados a contratos específicos com o Pentágono. Dario Amodei, CEO da Anthropic: a start-up “não pode, em sã consciência”, concordar com os termos do governo dos EUA sobre uso do Claude Samyukta Lakshmi/Bloomberg Isso oferece algum alívio para clientes e investidores que temiam que a empresa pudesse perder a capacidade de fazer qualquer negócio com companhias que trabalham com o Pentágono. Um porta-voz da Microsoft afirmou na quinta-feira que a empresa concluiu que pode continuar trabalhando com a Anthropic em projetos que não estejam ligados à defesa. Initial plugin text Mesmo assim, a designação significa que a empresa terá de interromper o trabalho com a Palantir Technologies, outra contratada militar. Isso inclui o uso do Claude, da Anthropic, pela Palantir na plataforma digital de controle de missões conhecida como Maven Smart System, que foi empregada na campanha militar dos Estados Unidos no Irã. Mudança: Pesquisador da Anthropic decide largar a carreira e faz alerta: 'O mundo está em perigo' A decisão do Pentágono também ameaça desacelerar esforços mais amplos para acelerar a adoção de IA em todo o Exército dos Estados Unidos. Até recentemente, a Anthropic fornecia o único sistema de IA que podia operar na nuvem classificada do Pentágono, e sua ferramenta Claude Gov tornou-se uma opção preferida entre o pessoal de defesa por sua facilidade de uso. “É uma boa capacidade” e removê-la “vai ser doloroso para todos os envolvidos”, disse Lauren Kahn, analista sênior de pesquisa no Center for Security and Emerging Technology da Georgetown University. Embora um funcionário da defesa tenha dito mais cedo na quinta-feira que a determinação seria “efetiva imediatamente”, as ferramentas de IA Claude, da Anthropic, ainda estão sendo usadas ativamente pelos militares dos Estados Unidos em operações no Irã, segundo uma fonte. Em seu aviso à empresa na última sexta-feira, Pete Hegseth havia delineado um período de transição de seis meses para transferir o trabalho de IA para outros fornecedores. Chatbots vão à guerra: Como IA generativa e drones kamikazes transformaram a guerra no Oriente Médio Pete Hegseth informou o Congresso de sua decisão em cartas enviadas aos principais republicanos e democratas das comissões da Câmara e do Senado responsáveis por Forças Armadas, dotações orçamentárias e inteligência, segundo correspondências as quais a Bloomberg teve acesso. “Essa determinação se baseia, em parte, em uma análise de risco feita pelo DoW e em contribuições de altos funcionários do DoW de que as restrições da Entidade Coberta ao uso de seus produtos e serviços introduzem riscos à segurança nacional na cadeia de suprimentos do DoW”, escreveu Hegseth, referindo-se à Anthropic e usando o acrônimo para o Departamento de Guerra (Department of War), nome que ele agora prefere usar para o Departamento de Defesa dos Estados Unidos. A Anthropic também está se preparando para perder trabalhos em agências civis, após a exigência do presidente Donald Trump na semana passada de que o governo federal deixasse de contratar a empresa. O Departamento do Tesouro dos Estados Unidos e Administração de Serviços Gerais já anunciaram a intenção de interromper negócios com a companhia. Em uma publicação na quinta-feira, Dario Amodei disse que vinha mantendo discussões contínuas com o Pentágono nos últimos dias, que ele considerou “produtivas”, sobre como lidar com as preocupações da empresa em relação às salvaguardas da IA. Ele afirmou que a Anthropic pretende continuar fornecendo seus produtos às Forças Armadas enquanto isso for permitido. IAí? Como os EUA usaram IA no ataque ao Irã e até onde vai a aliança do setor com Trump Emil Michael, subsecretário de Defesa para pesquisa e engenharia, que vinha negociando com Amodei nas últimas semanas, disse em uma postagem no X na noite de quinta-feira que não havia mais discussões. “Quero encerrar toda especulação: não há nenhuma negociação ativa do @DeptofWar com @AnthropicAI”, escreveu. Agora avaliada em US$ 380 bilhões, a Anthropic está a caminho de gerar uma receita anual de quase US$ 20 bilhões, mais que dobrando seu ritmo de crescimento desde o fim do ano passado. A disputa com o Pentágono, porém, tornou as perspectivas da empresa mais incertas. Aplicar um rótulo de risco de cadeia de suprimentos a uma empresa americana seria algo sem precedentes e iria além do escopo da lei, segundo Charlie Bullock, pesquisador sênior do Institute for Law & AI. — Essa não é uma autoridade destinada a destruir grandes empresas americanas que tenham um desacordo contratual com o governo dos Estados Unidos — disse ele. —É uma autoridade destinada a lidar com espionagem de empresas chinesas e coisas desse tipo. Reconhecendo o tom amargo das negociações, Amodei pediu desculpas por comentários em um memorando interno que vieram a público na quarta-feira. No documento, divulgado pelo The Information, Amodei acusou a rival OpenAI de agir de forma oportunista e de sacrificar salvaguardas em um acordo com o Pentágono anunciado pelo CEO Sam Altman horas depois de Trump e Hegseth ordenarem o fim das relações do governo dos EUA com a Anthropic. No memorando, Amodei também escreveu que acredita que o verdadeiro motivo de a administração não gostar da Anthropic é o fato de a empresa não ter feito doações para Trump, não ter apoiado suas políticas de IA nem lhe dado “elogios ao estilo de ditador”. Na quinta-feira, Amodei afirmou que “a Anthropic não vazou essa publicação nem orientou ninguém a fazê-lo”. “Não é do nosso interesse escalar a situação”, disse ele, acrescentando que o texto foi escrito poucas horas após publicações de Trump e Hegseth, além do anúncio da OpenAI. “Foi um dia difícil para a empresa, e peço desculpas pelo tom da publicação.”