O chatbot de IA Grok, de Elon Musk, disseminou informações falsas sobre o massacre na praia de Bondi, na Austrália, identificando erroneamente uma figura-chave que salvou vidas e alegando falsamente que uma vítima simulou seus ferimentos, disseram pesquisadores nesta terça-feira. O episódio destaca como os chatbots frequentemente fornecem respostas falsas durante eventos noticiosos em rápida evolução, alimentando o caos informacional à medida que as plataformas online reduzem a verificação humana de fatos e a moderação de conteúdo. Leia mais: atiradores de atentado na Austrália passaram quase um mês em reduto do Estado Islâmico nas Filipinas Companheiro leal: cão permanece junto ao corpo do dono durante ataque em praia na Austrália; vídeo Internado e sob custódia: atirador de massacre em Sydney saiu do coma e deve ser indiciado em breve, diz polícia da Austrália O ataque ocorrido no domingo durante um festival judaico no bairro litorâneo de Sydney foi um dos piores massacres a tiros da Austrália, deixando 15 mortos e dezenas de feridos. Entre as informações falsas divulgadas pela Grok estava a identificação errônea e repetida de Ahmed al Ahmed, que foi amplamente aclamado como um herói da praia de Bondi após arriscar a própria vida para tomar a arma de um dos agressores. Em uma publicação analisada pela AFP, o Grok afirmou que o vídeo verificado do confronto era "um vídeo antigo que viralizou, mostrando um homem subindo em uma palmeira em um estacionamento, possivelmente para podá-la", sugerindo que "pode ter sido encenado". Citando fontes de mídia confiáveis, como a CNN, a Grok identificou erroneamente uma imagem de Ahmed como sendo a de um refém israelense mantido pelo grupo terrorista Hamas por mais de 700 dias. Galerias Relacionadas Ao ser questionado sobre outra cena do ataque, o Grok afirmou incorretamente que se tratava de imagens do "ciclone tropical Alfred", que gerou condições climáticas adversas na costa australiana no início deste ano. Somente depois que outro usuário pressionou o chatbot para reavaliar sua resposta, o Grok voltou atrás e reconheceu que as imagens eram do tiroteio na praia de Bondi. Ao ser contatada pela AFP para comentar o assunto, a xAI, desenvolvedora do Grok, respondeu apenas com uma mensagem automática: "A mídia tradicional mente". 'Ator de crise' A desinformação reforça o que os pesquisadores consideram a falta de confiabilidade dos chatbots de IA como ferramenta de verificação de fatos. Os usuários da internet estão recorrendo cada vez mais a chatbots para verificar imagens em tempo real, mas essas ferramentas frequentemente falham, levantando dúvidas sobre sua capacidade de desmascarar imagens falsas. Após o ataque em Sydney, usuários da internet divulgaram uma imagem autêntica de um dos sobreviventes, alegando falsamente que ele era um "ator contratado para simular uma crise", informou a organização de monitoramento de desinformação NewsGuard. "Ator de crise" é um termo pejorativo usado por teóricos da conspiração para alegar que alguém está enganando o público — fingindo ferimentos ou morte — enquanto se faz passar por vítima de um evento trágico. Leia mais: testemunhas descrevem caos após ataque terrorista em praia da Austrália Assista: vídeo mostra atirador sendo desarmado por homem em ataque que deixou 11 mortos na Austrália Usuários da internet questionaram a autenticidade de uma foto do sobrevivente com sangue no rosto, compartilhando uma resposta do Grok que rotulava falsamente a imagem como "encenada" ou "falsa". A NewsGuard também relatou que alguns usuários divulgaram uma imagem gerada por IA — criada com o modelo Nano Banana Pro, do Google — mostrando tinta vermelha sendo aplicada no rosto do sobrevivente para simular sangue, aparentemente para reforçar a falsa alegação de que ele era um ator contratado para simular uma tragédia. Pesquisadores afirmam que os modelos de IA podem ser úteis para verificadores de fatos profissionais, ajudando a geolocalizar imagens rapidamente e a identificar pistas visuais para estabelecer a autenticidade. Mas eles alertam que não podem substituir o trabalho de verificadores de fatos humanos treinados. Em sociedades polarizadas, no entanto, os verificadores de fatos profissionais frequentemente enfrentam críticas de conservadores por suposto viés liberal, acusação que rejeitam.