O Conselho Federal de Medicina (CFM) publicou na sexta-feira (27) uma resolução que estabelece regras para o uso de sistemas de inteligência artificial (IA) na prática médica em todo o país. A norma, que entra em vigor em 180 dias, define que a tecnologia pode ser utilizada como ferramenta de apoio à decisão clínica, à gestão em saúde, à pesquisa e à educação médica continuada, mas deixa explícito que a palavra final sobre diagnóstico, tratamento e prognóstico é sempre do médico. Minas Gerais: Operador logístico morre após ser atingido por vigas de quatro toneladas em metalúrgica 'Grande vitória': Janja elogia 'primeira-ministra da extrema direita' por prisão perpétua para feminicídio na Itália Pelo texto, a IA não pode substituir o profissional nem restringir sua autonomia técnica. Caberá ao médico acolher ou rejeitar as recomendações geradas por sistemas automatizados, com base em julgamento crítico e ético. A resolução também garante ao profissional o direito de se recusar a utilizar tecnologias que não tenham validação científica adequada, certificação regulatória ou que contrariem princípios éticos e legais da medicina. Entre os principais pontos da norma está a obrigatoriedade de informar o paciente, de forma clara e acessível, sempre que a inteligência artificial for utilizada como apoio relevante em seu atendimento. O uso da ferramenta também deverá ser registrado no prontuário. A resolução proíbe que sistemas de IA comuniquem diretamente diagnósticos, prognósticos ou decisões terapêuticas ao paciente. A interação clínica e a comunicação de informações sensíveis permanecem sob responsabilidade exclusiva do médico. O texto ainda reforça que a tecnologia não pode comprometer a relação médico-paciente, a escuta qualificada, a empatia, a confidencialidade e o respeito à dignidade da pessoa humana. O paciente mantém o direito à segunda opinião, à proteção de seus dados pessoais e à não submissão a intervenções experimentais sem consentimento específico. A norma estabelece ainda que o médico não poderá ser responsabilizado por falhas atribuíveis exclusivamente aos sistemas de IA, desde que fique comprovado o uso diligente, crítico e ético da ferramenta. Ainda assim, a responsabilidade final pela decisão clínica permanece com o profissional, que deve manter-se atualizado sobre as limitações dos sistemas utilizados. As atividades de supervisão e fiscalização do cumprimento da resolução caberão aos Conselhos Regionais de Medicina (CRMs). A Resolução nº 2.454/2026 também cria critérios de classificação dos sistemas de IA segundo níveis de risco, considerando fatores como impacto sobre direitos fundamentais, grau de autonomia do modelo, complexidade e sensibilidade dos dados utilizados. Hospitais e clínicas que desenvolvam ou utilizem sistemas próprios deverão instituir processos internos de governança. Quando aplicável, deverão criar uma Comissão de IA e Telemedicina sob coordenação médica, vinculada à diretoria técnica, para assegurar o uso ético e seguro das soluções. O texto determina ainda que todos os dados empregados no desenvolvimento, treinamento e implementação dos sistemas respeitem integralmente a Lei Geral de Proteção de Dados Pessoais (LGPD), além das normas específicas de segurança da informação em saúde. Segundo o relator da resolução e coordenador da Comissão de Inteligência Artificial do CFM, Jeancarlo Cavalcante, o objetivo é preencher uma lacuna regulatória no Brasil. Ele argumenta que a área da saúde é uma das que mais recebem aportes de IA no mundo e que diferentes países já avançaram em regulamentações específicas, como na União Europeia e em estados norte-americanos. A norma foi debatida por cerca de um ano e meio por um grupo de trabalho criado pelo CFM, com participação de conselheiros, especialistas em inteligência artificial, pesquisadores e representantes da área de informática em saúde. A regulamentação surge em meio ao crescimento do uso de chatbots e ferramentas de IA por pacientes em busca de orientação médica. Estudo publicado recentemente na revista Nature Medicine apontou que conselhos fornecidos por chatbots comerciais frequentemente apresentam erros e podem variar significativamente a depender de pequenas mudanças na formulação das perguntas. Na pesquisa, conduzida por cientistas da Universidade de Oxford, participantes acertaram a conduta considerada correta em menos da metade dos casos ao utilizar sistemas como o ChatGPT e o Llama para analisar cenários clínicos simulados. Em alguns episódios, os modelos chegaram a fornecer informações inventadas ou números de emergência inexistentes. Os próprios autores concluíram que as ferramentas avaliadas não estavam prontas para atendimento direto ao paciente.