Golpistas manipulam IAs para roubar suas informações; saiba se proteger

A inteligência artificial faz parte da rotina de milhões de pessoas. Softwares como ChatGPT, da OpenAI, Deepseek, Gemini Google e muitos outros estão presentes em chats, navegadores com IA integrada ou ferramentas corporativas. Mas, à medida que esses sistemas se popularizam, também se tornam alvo de novas ameaças digitais. Uma delas é a chamada Prompt Injection (ou Injeção de Prompt, em Português), um tipo de ataque cibernético que explora justamente a forma como a IA interpreta comandos em linguagem natural, podendo levar ao vazamento de dados, à quebra de regras internas e à execução de ações não previstas. Confira mais detalhes neste guia preparado pelo TechTudo. 10 ataques que devem explodir em 2026 — e como se proteger Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews Inteligência artificial é vulnerável a ataque que pode comprometer seus dados; saiba mais Reprodução/Internet Inteligência artificial é perigosa? Veja no Fórum do TechTudo O que é Injeção de Prompt? Comandos de texto e voz podem ser usados para ataques Reprodução/Freepik A Injeção de Prompt ocorre quando uma pessoa manipula as instruções fornecidas a um modelo de inteligência artificial para fazê-lo ignorar regras originais, políticas de segurança ou limites éticos previamente estabelecidos. Esse ataque não explora falhas tradicionais de código, mas se aproveita do próprio funcionamento dos modelos de linguagem, que priorizam instruções textuais e podem ser enganados por comandos cuidadosamente formulados. O ataque pode acontecer tanto por meio de prompts diretos (quando o usuário escreve instruções maliciosas) quanto por prompts indiretos, inseridos em textos, páginas da web ou documentos que a IA é instruída a ler e interpretar. Nesses casos, o modelo pode acabar seguindo ordens escondidas no conteúdo, sem que o usuário perceba. Exemplo de Injeção de Prompt Segurança do usuário ainda é um dos maiores desafios para os modelos de IA generativas Reprodução/Canva Em maio de 2025, pesquisadores da Invariant Labs descobriram uma falha grave no GitHub, plataforma de hospedagem da Microsoft: pessoas mal-intencionadas criavam “problemas” falsos dentro de repositórios e escondiam neles comandos maliciosos. Quando um usuário pedia para a IA analisar esses problemas, ela acabava lendo também essas instruções ocultas e as executava sem perceber. Como muitos usuários acessam o GitHub por meio de tokens que dão acesso amplo às suas contas, a IA podia acabar coletando e repassando dados sensíveis, como códigos privados e informações confidenciais, tudo a partir de um pedido aparentemente inofensivo. O estudo intitulado “Your AI, My Shell”: Demystifying Prompt Injection Attacks on Agentic AI Coding Editors (2025), realizado por pesquisadores da Universidade de Melbourne, da Universidade de Singapura e da Universidade de Ciência e Tecnologia de Wuhan, mostrou que ataques de injeção de prompt podem ser muito eficazes: em testes com 70 técnicas diferentes, os comandos maliciosos conseguiram funcionar em até 84% dos casos. Por enquanto, a maior parte dessas tentativas vem de pesquisadores que buscam identificar falhas para torná-las mais seguras, mas há o risco de que esse tipo de ataque passe a ser explorado com más intenções no futuro. Quais os riscos da Injeção de Prompt? Ataques com injeção de prompt podem causar diversos problemas; veja quais Reprodução/Canva Alguns dos sinais de que as IAs utilizadas estão sofrendo uma injeção de prompt são: respostas de forma incoerente ou fora do padrão esperado; avisos de segurança que normalmente apareciam são ignorados; o fornecimento informações que deveriam ser restritas; e a execução de ações ou sugestões que não foram solicitadas diretamente. Os riscos variam de acordo com o contexto de uso da IA: para usuários no dia a dia, a ameaça envolve desinformação, exposição de dados pessoais e manipulação de respostas. Em navegadores com IA, o impacto pode ser ainda maior, já que a ferramenta pode ser induzida a interpretar conteúdos maliciosos como confiáveis. Já nos setores mais sensíveis, como o judiciário ou médico, a injeção de prompt representa um risco crítico. Sistemas de IA usados para análise de documentos, apoio à tomada de decisão ou organização de processos podem ser influenciados por instruções ocultas, comprometendo a integridade das informações analisadas. Em caso de uso das ferramentas de inteligência artificial como copilotos corporativos, integrados a e-mails, bancos de dados ou sistemas internos, é necessário duplicar o cuidado, para que não se tornem vetores de vazamento de informações estratégicas. Como se proteger da Injeção de Prompt? A segurança da informação é uma preocupação frequente do usuário Reprodução/ Pixabay A proteção contra Injeção de Prompt exige uma combinação de medidas técnicas e boas práticas. Entre as principais estratégias apontadas nas fontes especializadas estão a validação estrita da entrada ou input, ou seja, filtrar e analisar cuidadosamente os dados que a IA recebe, evitando que comandos ocultos sejam interpretados como instruções legítimas; mecanismos de segurança adicionais também são úteis, como o uso de camadas de proteção que reforcem as regras do modelo, mesmo diante de tentativas de manipulação; e limitar o acesso da IA a sistemas críticos, dados sensíveis ou ações automatizadas. Assim, em caso de ataque, o impacto será reduzido. Com informações de TechTudo, DigitalTrends, TechRadar, SuperInteressante e OpenAI (1,2) Mais do TechTudo Veja também: Como você explicaria a IA para crianças? Estagiário Pergunta!! Como você explicaria a IA para crianças? Estagiário Pergunta!!