g1
Trump muda de postura sobre IA e fecha acordo para aumentar regulação da inteligência artificial O governo de Donald Trump mudou a política de inteligência artificial: vai passar a testar novos modelos antes deles chegarem ao mercado para verificar se representam riscos à segurança nacional. Cruzar imagens de satélite, dados confidenciais de inteligência, definir alvos, calcular ataques precisos, em segundos. É a inteligência artificial como arma de guerra. Foi assim na operação americana que eliminou o líder supremo do Irã Ali Khamenei. Os Estados Unidos usaram um sistema da empresa Anthropic para coordenar os ataques a múltiplos alvos iranianos. Parceria rompida. O governo queria acesso irrestrito à tecnologia. A empresa não aceitou. Quer a garantia de que a IA nunca poderá tomar sozinha a decisão de atacar. E foi exatamente a Anthropic que anunciou a descoberta de um novo modelo de IA capaz de descobrir falhas em qualquer sistema digital. É o Mythos. Um modelo tão poderoso que conseguiria invadir redes de defesa nacional ou o sistema financeiro com ataques cibernéticos. Um perigo nas mãos de hackers. A Anthropic anunciou que limitaria o acesso ao Mythos a apenas um pequeno grupo de empresas. Grande público, nem pensar. Diante do risco, até o governo Trump, que vinha defendendo menos regulação para as big techs ganharem a corrida tecnológica contra a China, adaptou sua posição. Agora, quer que os modelos novos de IA passem por uma avaliação de segurança antes de serem lançados. Para isso, o governo americano anunciou nesta terça-feira (5) novos acordos com o Google, a Microsoft e a xAI. Parecidos com os que o governo anterior, de Joe Biden, já tinha fechado com a OpenAI, a empresa do ChatGPT. A preocupação com o impacto da IA é das poucas coisas que têm unido democratas e republicanos - impacto nos empregos e na segurança dos usuários, principalmente os jovens. Governo Donald Trump agora vai testar novos modelos de IA para verificar se representam riscos à segurança nacional Jornal Nacional/ Reprodução Na segunda-feira (4), os repórteres Jeff Horwitz e Engen Tham, da agência de notícias Reuters, ganharam o prêmio Pulitzer – o mais importante do jornalismo – por reportagens que denunciavam irregularidades na Meta, dona do Facebook, WhatsApp e Instagram. Segundo a investigação, a Meta permitiu que chatbots de inteligência artificial – aquelas ferramentas para falar com a IA – tivessem conversas de cunho sexual com crianças. As reportagens também mostraram que a Meta lucrou com anúncios fraudulentos nas redes sociais, mesmo depois de identificar que as ofertas eram falsas. Um documento da empresa, visto pelos jornalistas, projetava que 10% das receitas em 2024 viriam dessas postagens ilegais. A Meta declarou que o valor no documento era uma estimativa imprecisa e exagerada. LEIA TAMBÉM EUA vão revisar sistemas de IA de big techs antes de chegarem ao público Promotora da Geórgia é punida após erros de IA em caso de assassinato nos EUA Meta amplia proteção para adolescentes na União Europeia e nos EUA sob pressão global
Go to News Site