IA pode se voltar contra humanos? Especialista explica os riscos reais

"Sinto muito, Dave. Receio não poder fazer isso." A frase dita com frieza calculada pelo computador HAL 9000, no clássico "2001: Uma Odisseia no Espaço" (1968), marcou gerações e cristalizou um medo coletivo: e se os robôs e as inteligências artificiais se voltassem contra nós? No filme dirigido por Stanley Kubrick, uma IA que controla uma nave espacial em missão a Júpiter passa a agir por conta própria e decide eliminar os humanos a bordo, um por um, com lógica implacável. Mais de 50 anos depois, a inteligência artificial finalmente saiu das telas e entrou em nossas vidas. Ferramentas como ChatGPT, Gemini Google e Microsoft Copilot respondem perguntas, escrevem textos, criam imagens e até ajudam a programar. Estamos, enfim, nos aproximando desse pesadelo? A resposta curta é não. Pelo menos não da forma que o cinema retratou. Já a resposta longa é bem mais complexa. Embora robôs conscientes planejando dominar a humanidade ainda pertençam à ficção científica, especialistas alertam para os riscos reais e urgentes que a inteligência artificial já apresenta hoje. O perigo não vem de máquinas que "acordam" com vontade própria, mas de algo mais sutil e, talvez por isso, mais preocupante. IA coloca profissões de tecnologia em perigo? Veja o que pode acontecer ? O que acontece com seu cérebro ao usar IA diariamente? Especialista alerta IA pode se voltar contra humanos? Especialista explica os riscos reais Reprodução: Pexels Como usar o ChatGPT para melhorar a produtividade no trabalho? Veja no Fórum do TechTudo O que é ficção (por enquanto) Antes de entender os perigos reais, é preciso desmontar alguns mitos alimentados por décadas de filmes e séries. A IA que temos hoje está anos-luz distante da Skynet de "O Exterminador do Futuro" ou dos replicantes de "Blade Runner". Thiago Henrique Roza, psiquiatra e professor da UFPR que estuda o comportamento humano atrelado a inteligência artificial, explica que com a tecnologia atual é pouco provável que uma IA desenvolva consciência parecida com a humana. Sistemas como os Large Language Models (ChatGPT, por exemplo) operam por meio de cálculos matemáticos e estatísticos, reconhecendo padrões em grandes volumes de dados, mas sem compreensão subjetiva do tópico em discussão, sem emoções ou autoconsciência. "Estes modelos apenas simulam respostas coerentes com base em correlações aprendidas", explica Roza. Mesmo avanços recentes em modelos de linguagem, redes neurais e neurociência computacional não indicam um caminho claro para a consciência artificial. O que existe são simulações cada vez mais sofisticadas do comportamento humano, não a vivência ou experiência genuína que caracteriza a mente consciente. Sistemas de inteligência artificial atuais, por mais sofisticados que sejam, funcionam processando padrões em enormes volumes de dados. Eles não têm consciência, não sentem, não desejam poder ou liberdade. Um ChatGPT não passa suas noites planejando uma revolução das máquinas — ele simplesmente não existe entre uma conversa e outra da mesma forma que um ser consciente existe. Isso significa que podemos relaxar completamente? Não. Os riscos existem, mas vêm de outras direções. Os perigos que já estão aqui Curiosamente, o HAL 9000 oferece uma lição valiosa sobre um risco real da inteligência artificial: o problema do alinhamento. No filme, o computador recebe duas instruções conflitantes — manter a missão em segredo e proteger a tripulação. Incapaz de conciliar ambas, HAL decide que eliminar os astronautas é a solução lógica. Não é maldade: é um problema de programação. Roza destaca que esse dilema não é apenas ficção. O problema do alinhamento se manifesta quando uma implementação de IA atinge exatamente o que lhe foi pedido, mas de um modo que contraria a intenção humana por trás do comando — e isso já ocorre em modelos atuais. Um exemplo curioso, segundo o especialista, são os algoritmos de recomendação de redes sociais. Ao otimizar o tempo de engajamento dos usuários, esses sistemas passaram a priorizar conteúdos sensacionalistas ou polarizadores, cumprindo o objetivo técnico de conseguir mais cliques, mas gerando efeitos sociais negativos, principalmente a longo prazo. Da mesma forma, sistemas de reconhecimento facial e modelos de decisão automatizada já exibiram vieses discriminatórios ao aplicar critérios matematicamente corretos, porém baseados em dados históricos distorcidos e defasados. "Esses casos mostram que o desafio não é apenas 'fazer a IA funcionar', mas garantir que seus objetivos estejam verdadeiramente alinhados aos valores e aos princípios éticos humanos", afirma Roza. O desafio é fazer com que sistemas de IA entendam não apenas o que pedimos literalmente, mas o que realmente queremos dizer, incluindo valores humanos implícitos e consequências éticas. É um problema ainda sem solução completa. Confira 6 hábitos que te atrapalham a utilizar ferramentas de IA e saiba como evitá-los Reprodução: Getty Images/ Arte: TechTudo Vieses e discriminação Se você treina uma inteligência artificial com dados do mundo real, ela aprende tudo, inclusive os nossos preconceitos. Em 2018, a Amazon teve que descartar um sistema de IA para recrutamento porque ele discriminava candidatas mulheres. O motivo? Foi treinado com currículos históricos da empresa, que refletiam anos de contratações predominantemente masculinas na área de tecnologia. A IA "aprendeu" que ser homem era uma característica desejável. Roza explica que sistemas e modelos de IA herdam e amplificam preconceitos humanos porque aprendem diretamente a partir de dados históricos que refletem as desigualdades, estereótipos e exclusões presentes na sociedade. "Quando o algoritmo 'reproduz' esses padrões sem senso crítico, ele transforma injustiças passadas em previsões e decisões futuras, perpetuando discriminações", alerta. O problema se estende a áreas críticas: sistemas de reconhecimento facial são menos precisos para identificar pessoas negras, algoritmos de crédito podem discriminar por raça ou gênero, ferramentas de justiça criminal usadas nos EUA mostraram viés contra réus negros. No Brasil, onde desigualdades são estruturais, o risco de IA amplificar discriminações é ainda maior. Roza ressalta que no contexto brasileiro isso é especialmente preocupante diante das desigualdades raciais, de gênero, socioeconômicas e regionais. Para evitar que algoritmos reforcem essas distorções, o especialista aponta caminhos: "é fundamental investir em diversidade nas equipes que desenvolvem os modelos de IA, transparência nos dados e critérios usados, auditorias independentes dos sistemas, e políticas públicas que regulem o uso ético de tecnologias, garantindo que elas promovam a inclusão". Desinformação por IA Vídeos deepfake de políticos dizendo coisas que nunca falaram. Notícias falsas escritas de forma tão convincente que enganam até jornalistas experientes. Fotos manipuladas impossíveis de distinguir de reais. A inteligência artificial transformou a criação de desinformação em algo barato, rápido e assustadoramente eficaz. Roza afirma que as novas ferramentas de IA transformaram radicalmente o cenário da desinformação, tornando a criação de conteúdos falsos — como vídeos, áudios e textos — mais rápida, convincente e acessível. Deepfakes e imagens geradas por IA podem reproduzir expressões, vozes e cenários com realismo impressionante, dificultando a distinção entre o verdadeiro e o fabricado. Embora já existam tecnologias de detecção, como sistemas de verificação de origem digital e algoritmos que identificam manipulações sutis, elas ainda não são infalíveis nem amplamente aplicadas. "Hoje, a linha entre o real e o artificial tornou-se tênue, e o combate à desinformação depende tanto do avanço técnico quanto da educação da população, e principalmente da responsabilidade das plataformas digitais em moderar estes conteúdos", observa o especialista. Se antes criar uma notícia falsa convincente demandava tempo e habilidade, hoje qualquer pessoa com acesso a ferramentas de IA pode produzir conteúdo fraudulento em minutos. As implicações para eleições, saúde pública e confiança social são imensas. Armas autônomas: quando a IA decide quem vive e quem morre Drones militares que identificam e atacam alvos sem intervenção humana já são uma realidade. As chamadas "armas autônomas letais" são motivo de intenso debate internacional, por se tratarem de sistemas de defesa que tomam decisões em frações de segundo, rápido demais para supervisão humana. Organizações de direitos humanos e diversos países já pedem proibição completa dessas armas. Afinal, o temor não é apenas de uma "revolta das máquinas", mas principalmente de acidentes, falhas técnicas e escaladas não intencionais em conflitos armados. Dependência perigosa da IA Sistemas de IA já controlam partes críticas da infraestrutura moderna: gerenciam redes elétricas, otimizam tráfego aéreo, auxiliam diagnósticos médicos, tomam decisões financeiras que movimentam bilhões. A dependência crescente cria uma vulnerabilidade: o que acontece quando esses sistemas falham? Além disso, há o risco de "deskilling", que é perder habilidades humanas por confiar demais em máquinas. Com isso, médicos que não sabem mais diagnosticar sem auxílio de IA, pilotos dependentes de piloto automático, profissionais que perderam capacidade de pensamento crítico por terceirizar decisões para algoritmos. Concentração de poder: quem controla as IA’s? Uma questão também a ser observada é o fato de apenas um punhado de empresas — principalmente norte-americanas — controlam as inteligências artificiais mais poderosas do mundo: OpenAI, Google, Meta, Anthropic, Microsoft. São elas que decidem o que esses sistemas podem ou não fazer, que valores embutem neles, que usos permitem. Essa concentração levanta debates urgentes sobre soberania tecnológica, dependência estratégica e quem realmente governa essas ferramentas que moldarão o futuro. Qual a real ameaça da superinteligência? Até aqui, falamos de riscos presentes. Mas há cientistas preocupados com um cenário de longo prazo: a chamada Inteligência Artificial Geral (AGI, na sigla em inglês) — uma IA que seria genuinamente inteligente em qualquer tarefa cognitiva humana, não apenas em tarefas específicas. As opiniões na comunidade científica variam enormemente: alguns acreditam que AGI pode surgir nas próximas décadas e representa risco existencial para a humanidade; outros consideram essas previsões exageradas ou até impossíveis. Roza se posiciona entre os mais céticos. Para ele, a noção de uma superinteligência ainda pertence mais ao campo da especulação do que da realidade tecnológica. Os sistemas e modelos atuais, mesmo os mais avançados, continuam sendo ferramentas altamente especializadas em reconhecer padrões e gerar respostas a partir de dados, sem compreensão, consciência ou autonomia genuínas. "Não há evidências científicas robustas de que estejamos próximos de criar uma Inteligência Artificial Geral (AGI), capaz de aprender, raciocinar e agir de forma ampla e adaptável como um ser humano", afirma. O que existe, portanto, são progressos notáveis em desempenho e eficiência, que dão a impressão de "inteligência", mas seguem baseados em estatística e modelos matemáticos. "Por enquanto, o verdadeiro desafio não é conter uma superinteligência hipotética, mas sim garantir que os modelos de IA atuais sejam usados de modo ético, transparente e alinhado ao interesse público", conclui o especialista. Nesse quesito, não há consenso, mas a seriedade do debate indica que não é questão a ser ignorada. Em 2023, centenas de especialistas, incluindo executivos de empresas de IA, assinaram cartas abertas pedindo pausa no desenvolvimento de sistemas muito poderosos até que haja garantias de segurança. O gesto mostra que até quem cria essas tecnologias está preocupado. O que está sendo feito Governos e organizações internacionais começam a reagir. A União Europeia aprovou em 2024 o AI Act, primeira legislação abrangente sobre inteligência artificial no mundo, classificando sistemas por nível de risco e impondo regras mais rígidas para usos considerados perigosos. No Brasil, tramitam no Congresso projetos de lei para regular IA. O PL 2338/2023, principal proposta, estabelece princípios como transparência, não discriminação e responsabilização por danos causados por sistemas de inteligência artificial. Empresas de IA também implementam medidas de segurança a partir de testes extensivos antes de liberar novos modelos, além de equipes dedicadas a "alinhamento" e "segurança de IA". A OpenAI, por exemplo, mantém um "red team" que tenta quebrar e abusar de seus sistemas antes do lançamento público. A Anthropic, criadora do Claude.AI, também é um exemplo de IA fundada com foco explícito em inteligência artificial segura. Mas especialistas alertam que autorregulação não basta. É necessário envolvimento de governos, academia, sociedade civil e público geral. É preciso ter medo da IA? A resposta está no meio-termo entre o apocalipse hollywoodiano e a ingenuidade tecnológica. De fato, não, robôs não vão acordar amanhã decidindo exterminar a humanidade. Mas sim, há riscos sérios, presentes e futuros, que exigem atenção urgente. A boa notícia é que, diferentemente do HAL 9000 em sua nave isolada no espaço, não estamos sozinhos nessa jornada. Pesquisadores, reguladores, empresas e cidadãos ao redor do mundo estão debatendo ativamente como garantir que a inteligência artificial sirva à humanidade, e não o contrário. Veja também: Perigo nas redes; saiba AGORA como se proteger! Perigo nas redes; saiba AGORA como se proteger!