Pentágono afirma ter informado à Anthropic que a empresa representa um risco para a cadeia de abastecimento

Após o CEO da Anthropic, Dario Amodei, retomar as discussões com o Pentágono sobre a forma como seus modelos de inteligência artificial (IA) são utilizados pelas Forças Armadas dos Estados Unidos, sinalizando que um consenso possa ser alcançado, o Pentágono afirmou que notificou formalmente a empresa de IA de que considera ela e seus produtos um risco para a cadeia de fornecimento dos Estados Unidos, segundo um alto funcionário de defesa. Chatbots vão à guerra: como IA generativa e drones kamikazes transformaram a guerra no Oriente Médio Sistema sobrecarregado: Anthropic enfrenta instabilidade no Claude em meio à demanda recorde “O DOW informou oficialmente à liderança da Anthropic que a empresa e seus produtos são considerados um risco para a cadeia de suprimentos, com efeito imediato”, disse a autoridade à Bloomberg nesta quinta-feira, usando a sigla para Department of War, nome que o secretário de Defesa Pete Hegseth agora prefere usar para se referir ao Departamento de Defesa dos Estados Unidos. Porta-vozes da Anthropic não comentaram imediatamente. O funcionário da defesa não disse quando nem por qual meio o Pentágono informou a empresa sobre essa designação. A decisão do Pentágono pode causar impactos tanto para a empresa quanto para os militares, que têm dependido fortemente das ferramentas da Anthropic. Até recentemente, a startup fornecia o único sistema de IA capaz de operar na nuvem privada do Pentágono. Sua ferramenta Claude Gov tornou-se uma opção favorita entre os militares por sua facilidade de uso. IAí? Como os EUA usaram IA no ataque ao Irã e até onde vai a aliança do setor com Trump O CEO da Anthropic, Dario Amodei, vinha negociando há semanas com Emil Michael, subsecretário de defesa para pesquisa e engenharia, para fechar um contrato que definiria o acesso do Pentágono à tecnologia da empresa. Mas as negociações fracassaram na semana passada depois que a startup exigiu garantias de que sua IA não seria usada para vigilância em massa de cidadãos americanos nem para a implantação de armas autônomas. Em seguida, Hegseth declarou, em uma postagem no X, que a Anthropic representava um risco para a cadeia de suprimentos — uma designação normalmente reservada a adversários dos EUA. “Desde o início, isso sempre foi sobre um princípio fundamental: o militar poder usar tecnologia para todos os fins legais”, disse o funcionário de defesa nesta quinta-feira. “Os militares não permitirão que um fornecedor se insira na cadeia de comando ao restringir o uso legal de uma capacidade crítica e colocar nossos combatentes em risco.”