Anthropic enfrenta instabilidade no Claude em meio à demanda recorde

O chatbot de inteligência artificial Claude, da Anthropic, ficou fora do ar para milhares de usuários nesta segunda-feira, em meio a uma demanda recorde que, segundo a empresa, vem pressionando seus sistemas na última semana. Vídeos: veja em ação os incríveis robôs humanoides da China, que aposta em 'momento ChatGPT' da automação Ordem: Trump proíbe agências federais dos EUA de usarem ferramentas da Anthropic Quase 2 mil usuários relataram interrupções no serviço do Claude no pico da instabilidade, por volta das 6h40 do horário de Nova York (8h40 no horário de Brasília), segundo o site de monitoramento Downdetector. As reclamações haviam caído para um terço desse número às 8h40 (10h40 no horário de Brasília), mas a Anthropic informou, em comunicado enviado pelo WhatsApp, que as "plataformas voltadas ao consumidor", como o site claude.ai e os aplicativos da empresa, permaneciam indisponíveis. Empresas que integraram os modelos de IA do Claude aos seus próprios sistemas não foram afetadas. "Agradecemos a paciência de todos enquanto trabalhamos para restabelecer o serviço, diante de uma demanda sem precedentes pelo Claude na última semana", afirmou a Anthropic no comunicado. Às 9h05 (horário de Nova York, 11h05 em Brasília), a empresa "continuava trabalhando em uma solução", de acordo com uma atualização publicada em seu site. Mudança: Pesquisador da Anthropic decide largar a carreira e faz alerta: 'O mundo está em perigo' A Anthropic tem registrado um aumento no uso de seus serviços enquanto trava um embate com o Departamento de Defesa dos EUA sobre o possível uso de sua tecnologia para vigilância em massa e desenvolvimento de armamentos autônomos. O Pentágono classificou a Anthropic como um risco para a cadeia de suprimentos — uma medida sem precedentes contra uma empresa americana que ameaça trazer consequências profundas para seus negócios. O número de usuários gratuitos do Claude cresceu mais de 60% desde janeiro, e os assinantes pagos mais que dobraram desde outubro, segundo a empresa. A Anthropic determinou que seus produtos não podem ser usados para vigilância de cidadãos americanos nem para desenvolver armas totalmente autônomas e afirmou, na sexta-feira, que "nenhuma intimidação ou punição por parte do Departamento de Guerra mudará nossa posição". Rival: OpenAI conclui captação de US$ 110 bilhões e é avaliada em US$ 730 bilhões A empresa afirmou que vai recorrer à Justiça caso receba uma notificação formal de que foi classificada como risco para a cadeia de suprimentos, e seu diretor-presidente, Dario Amodei, chamou a medida de “retaliatória e punitiva” em entrevista à CBS News. Horas depois de a Anthropic ser classificada como risco para a cadeia de suprimentos, sua principal concorrente, a OpenAI, concordou em implementar seus próprios modelos de IA na rede sigilosa do Departamento de Defesa, afirmando ter fechado um acordo que reflete os princípios da empresa, os quais proíbem vigilância doméstica em massa e exigem "responsabilidade humana pelo uso da força, inclusive em sistemas de armas autônomas". A OpenAI defendeu o novo acordo, dizendo que incluiu diversas salvaguardas no contrato para garantir que seus modelos sejam utilizados e se comportem conforme o esperado durante a implementação. Ainda assim, ao longo do fim de semana, alguns usuários passaram a pedir o cancelamento de assinaturas do ChatGPT em reação ao acordo. Enquanto isso, o aplicativo Claude liderou por vários dias a App Store da Apple, e trabalhadores do Vale do Silício manifestaram apoio à posição adotada pela empresa.