HOME > Saúde

CFM define normas para uso de inteligência artificial na prática médica

Resolução estabelece supervisão humana obrigatória e garante decisão final ao médico

O Conselho Federal de Medicina (CFM) (Foto: CFM/Divulgação)

247 - O Conselho Federal de Medicina (CFM) publicou na sexta-feira (27) uma resolução que define regras para o uso de sistemas de inteligência artificial (IA) na prática médica em todo o país. A norma, que entra em vigor em 180 dias, prevê que a tecnologia possa ser utilizada como ferramenta de apoio à decisão clínica, gestão em saúde, pesquisa e educação médica continuada, mas reforça que a palavra final sobre diagnóstico, tratamento e prognóstico é sempre do médico. As informações são do jornal O Globo.

Pelo texto, a IA não pode substituir o profissional nem restringir sua autonomia técnica. O médico poderá aceitar ou rejeitar as recomendações geradas por sistemas automatizados com base em julgamento crítico e ético. Além disso, a resolução garante ao profissional o direito de recusar o uso de tecnologias sem validação científica, sem certificação regulatória ou que contrariem princípios éticos e legais da medicina.

Direitos do paciente e obrigações de transparência

Entre os pontos centrais da norma está a obrigação de informar o paciente sempre que a inteligência artificial for utilizada de forma relevante no atendimento, de maneira clara e acessível. O registro do uso da ferramenta também deverá constar no prontuário. A resolução proíbe que sistemas de IA comuniquem diretamente diagnósticos, prognósticos ou decisões terapêuticas ao paciente, mantendo a responsabilidade da comunicação sob o médico. A tecnologia não pode comprometer a relação médico-paciente, a escuta qualificada, a empatia, a confidencialidade ou a dignidade da pessoa humana.

O paciente mantém direitos fundamentais, como a obtenção de segunda opinião, a proteção de dados pessoais e a recusa a intervenções experimentais sem consentimento específico. A norma estabelece ainda que o médico não será responsabilizado por falhas atribuíveis exclusivamente aos sistemas de IA, desde que haja uso diligente, crítico e ético da ferramenta. A responsabilidade final sobre a decisão clínica permanece com o profissional, que deve conhecer as limitações dos sistemas utilizados.

Fiscalização, governança e proteção de dados

A supervisão e fiscalização do cumprimento da resolução ficarão a cargo dos Conselhos Regionais de Medicina (CRMs). A Resolução nº 2.454/2026 também cria critérios para classificar sistemas de IA segundo níveis de risco, considerando impacto sobre direitos fundamentais, grau de autonomia, complexidade e sensibilidade dos dados utilizados. Hospitais e clínicas que desenvolvam ou utilizem sistemas próprios deverão criar processos internos de governança e, quando aplicável, instituir uma Comissão de IA e Telemedicina sob coordenação médica, vinculada à diretoria técnica, para assegurar uso ético e seguro.

A norma determina ainda que todos os dados utilizados no desenvolvimento, treinamento e implementação dos sistemas sigam integralmente a Lei Geral de Proteção de Dados Pessoais (LGPD) e normas de segurança da informação em saúde. Segundo Jeancarlo Cavalcante, relator da resolução e coordenador da Comissão de Inteligência Artificial do CFM, a iniciativa visa preencher uma lacuna regulatória no Brasil, acompanhando tendências internacionais, como regulamentações na União Europeia e em estados dos Estados Unidos.

Debate de um ano e meio e contexto de expansão do uso de IA

A regulamentação foi debatida por cerca de um ano e meio por um grupo de trabalho formado por conselheiros, especialistas em IA, pesquisadores e profissionais da área de informática em saúde. A medida surge em meio ao aumento do uso de chatbots e ferramentas de IA por pacientes em busca de orientação médica. Um estudo recente publicado na revista Nature Medicine apontou que conselhos fornecidos por chatbots comerciais frequentemente apresentam erros e variações dependendo da formulação das perguntas. A pesquisa, conduzida por cientistas da Universidade de Oxford, mostrou que participantes acertaram a conduta correta em menos da metade dos casos ao utilizar sistemas como ChatGPT e Llama em cenários clínicos simulados, e que os modelos, em alguns casos, forneceram informações inventadas ou números de emergência inexistentes.

Artigos Relacionados