Collector
OpenAI, Anthropic e Google se unem para combater a reprodução de modelos de IA na China | Collector
OpenAI, Anthropic e Google se unem para combater a reprodução de modelos de IA na China
Jornal O Globo

OpenAI, Anthropic e Google se unem para combater a reprodução de modelos de IA na China

As rivais OpenAI, Anthropic e Google, da Alphabet, começaram a trabalhar juntos para tentar conter concorrentes chineses que estariam extraindo resultados de modelos avançados de inteligência artificial dos EUA para ganhar vantagem na corrida global de IA. As empresas estão compartilhando informações por meio do Frontier Model Forum, uma organização sem fins lucrativos do setor fundada em 2023 pelas três companhias de tecnologia em parceria com a Microsoft, para detectar as chamadas tentativas de “destilação adversária” que violam seus termos de serviço, segundo pessoas familiarizadas com o assunto. Essa colaboração rara destaca a gravidade de uma preocupação levantada por empresas americanas de IA de que alguns usuários, especialmente na China, estariam criando versões imitadas de seus produtos, capazes de competir com preços mais baixos e atrair clientes, além de representar um risco à segurança nacional. Autoridades dos EUA estimam que a destilação não autorizada custe bilhões de dólares por ano em lucros às empresas do Vale do Silício, de acordo com uma fonte que falou sob condição de anonimato. A OpenAI confirmou que participa do compartilhamento de informações sobre destilação adversarial por meio do Frontier Model Forum e apontou para um memorando recente enviado ao Congresso, no qual acusou a empresa chinesa DeepSeek de tentar “se aproveitar das capacidades desenvolvidas pela OpenAI e outros laboratórios de ponta dos EUA”. Google, Anthropic e o Frontier Model Forum se recusaram a comentar. A destilação é uma técnica em que um modelo de IA mais antigo (“professor”) é usado para treinar um modelo mais novo (“aluno”), que replica as capacidades do sistema anterior — muitas vezes a um custo muito menor do que desenvolver um modelo original do zero. Algumas formas de destilação são amplamente aceitas e até incentivadas por laboratórios de IA, como quando empresas criam versões menores e mais eficientes de seus próprios modelos ou permitem que desenvolvedores externos utilizem a técnica para criar tecnologias não competitivas. Ainda assim, a destilação se torna controversa quando utilizada por terceiros — especialmente em países considerados adversários, como China ou Rússia — para replicar trabalhos proprietários sem autorização. Os principais laboratórios de IA dos EUA alertam que adversários estrangeiros poderiam usar essa técnica para desenvolver modelos sem mecanismos de segurança, como limites que impediriam a criação de patógenos perigosos. A maioria dos modelos produzidos por laboratórios chineses é de código aberto (open weight), o que significa que partes do sistema de IA estão disponíveis publicamente para download e execução em plataformas próprias, tornando-os mais baratos de usar. Isso representa um desafio econômico para empresas americanas, que mantêm seus modelos proprietários e contam com pagamentos de clientes para compensar os enormes investimentos em data centers e infraestrutura. A destilação ganhou grande atenção em janeiro de 2025, após o lançamento surpreendente do modelo de raciocínio R1 da DeepSeek, que chamou a atenção global. Logo depois, Microsoft e OpenAI investigaram se a startup chinesa teria extraído indevidamente grandes volumes de dados dos modelos da empresa americana para criar o R1, segundo reportagem anterior da Bloomberg. Em fevereiro, a OpenAI alertou legisladores dos EUA de que a DeepSeek continuava usando táticas cada vez mais sofisticadas para extrair resultados dos modelos americanos, apesar dos esforços para evitar o uso indevido. A empresa afirmou em seu memorando ao Comitê Especial da Câmara sobre a China que a DeepSeek estaria usando destilação para desenvolver uma nova versão de seu chatbot. O compartilhamento de informações entre empresas de IA dos EUA sobre destilação adversarial segue uma prática comum no setor de cibersegurança, em que companhias trocam dados sobre ataques e táticas de adversários para fortalecer suas defesas. Trabalhando juntas, essas empresas buscam detectar melhor essa prática, identificar responsáveis e impedir seu sucesso. Autoridades do governo Trump sinalizaram sua abertura para incentivar esse tipo de cooperação entre empresas de IA. O Plano de Ação em IA, apresentado pelo presidente Donald Trump no ano passado, previa a criação de um centro de compartilhamento e análise de informações, em parte com esse objetivo. Por enquanto, o compartilhamento de informações sobre destilação ainda é limitado devido à incerteza das empresas sobre o que pode ser compartilhado sob as regras antitruste existentes ao enfrentar a concorrência chinesa, segundo fontes. As empresas se beneficiariam de maior clareza por parte do governo dos EUA. A destilação tornou-se uma das principais preocupações dos desenvolvedores americanos desde que a DeepSeek impactou os mercados globais no início de 2025 com o lançamento do R1. Modelos de código aberto altamente avançados continuam se expandindo na China, e o setor acompanha de perto possíveis atualizações importantes do modelo da DeepSeek. No ano passado, a Anthropic bloqueou empresas controladas por chineses de usar seu chatbot Claude e, em fevereiro, identificou três laboratórios chineses — DeepSeek, Moonshot e MiniMax — como responsáveis por extrair ilegalmente capacidades do modelo via destilação. Neste ano, a empresa afirmou que a ameaça “vai além de uma única companhia ou região” e representa um risco à segurança nacional, já que modelos destilados frequentemente não possuem mecanismos de segurança adequados para evitar usos maliciosos. O Google afirmou em um blog ter identificado um aumento nas tentativas de extração de modelos. As três empresas americanas ainda não apresentaram evidências de quanto da inovação em IA na China depende da destilação, mas observam que a frequência dos ataques pode ser medida pelo volume de grandes solicitações de dados.

Go to News Site