Médico não faz milagre... nem IA
O que a resolução do CFM faz, no fundo, é impedir dois extremos igualmente perigosos: a tecnofobia e a tecnolatria
Mais lidas
compartilhe
SIGA NO
O CFM publicou em fevereiro a Resolução nº 2.454/2026, que regulamenta o uso da Inteligência Artificial no âmbito da medicina. Muito além de uma mera norma corporativa, trata-se de um verdadeiro marco setorial: reconhece que a IA pode ampliar diagnósticos, otimizar fluxos e apoiar decisões clínicas — mas deixa claro que tecnologia não substitui o médico. E essa frase é o centro de tudo.
A resolução estabelece o óbvio — que, ainda assim, precisa ser dito: a IA deve ser utilizada exclusivamente como ferramenta de apoio, e o julgamento clínico precisa permanecer 100% humano. Até porque a responsabilidade continua sendo 100% humana. Em outras palavras: o algoritmo pode ajudar, direcionar e sugerir. Mas quem decide — e responde pelas consequências — continua sendo o médico. E ninguém mais.
A resolução não chove no molhado. Ela busca evitar que os médicos façam justamente o que profissionais de outras áreas vêm fazendo: terceirizar o senso crítico e assumir o lugar de copiloto — função que deveria caber à própria IA. O problema é que, no caso da medicina, essa inversão não compromete apenas a originalidade do trabalho. Ela pode comprometer a saúde do paciente.
Leia Mais
Há ainda um outro risco silencioso: o empobrecimento intelectual do próprio profissional. Pesquisa, análise crítica e raciocínio clínico são partes essenciais do aprendizado médico. Quando essas etapas são terceirizadas para algoritmos, o resultado tende a ser uma perigosa regressão cognitiva.
Vivemos um momento em que ferramentas generativas produzem laudos, sugerem condutas e oferecem probabilidades diagnósticas com impressionante velocidade.
Nesse contexto, o risco não está apenas no erro técnico, mas na tentação da delegação acrítica. A resolução do CFM acerta ao impor três pilares fundamentais para o uso da IA na medicina: validação científica dos sistemas utilizados, certificação regulatória adequada e monitoramento contínuo.
O texto dialoga diretamente com o PL nº 2.338/2023 — o marco legal geral da IA no Brasil — que classifica sistemas por risco e exige avaliações de impacto, auditorias e supervisão humana para aplicações de
alto risco, como as da saúde.
Não se trata de dificultar ou inviabilizar a inovação tecnológica. Trata-se de impedir que a inovação se transforme em imprudência, trazendo riscos à segurança dos pacientes.
A convergência entre o CFM e o projeto de lei é estratégica. Enquanto o PL estabelece princípios amplos — transparência, explicabilidade e responsabilização — a resolução do CFM traduz esses princípios para o contexto da prática médica. Sem esse detalhamento, a IA em saúde ficaria em um limbo jurídico e regulatório. E limbo regulatório é terreno fértil para erros, litígios e, em casos extremos, tragédias.
Mas há um outro protagonista nessa história: a proteção de dados. Dados de saúde não são apenas dados pessoais — são dados sensíveis. A LGPD exige tratamento reforçado, base legal adequada, minimização de coleta, finalidade específica e segurança da informação.
A resolução do CFM incorpora esses princípios e exige que o paciente seja informado quando a IA for utilizada em seu atendimento. Isso muda o cotidiano dos consultórios e hospitais. A transparência deixa de ser opcional. A governança deixa de ser discurso. E a segurança da informação deixa de ser “coisa da TI”, passando a ser responsabilidade de toda a instituição.
É nesse contexto que surge o papel estratégico do DPO — o Encarregado de Dados. Não como figura decorativa para cumprir checklist de compliance, mas como agente central no ciclo de vida da IA em saúde: desde a aquisição do sistema até sua implementação, operação e auditoria. Se uma instituição adquire uma ferramenta de IA sem avaliação de impacto, sem análise de base legal, sem testes de viés e sem política clara de supervisão humana, o problema não será tecnológico. Será jurídico.
E ele chegará rápido.
Os riscos não são teóricos. São inúmeros — e com alto potencial danoso para profissionais e instituições.
Há riscos técnicos: alucinações algorítmicas, vieses estatísticos e modelos opacos.
Há riscos éticos: desumanização do cuidado e redução da autonomia do paciente.
Há riscos jurídicos: responsabilização por falhas e uso de sistemas não certificados.
Há riscos de segurança: vazamentos, ataques cibernéticos e reidentificação de dados.
A resolução do CFM reconhece esses riscos — e isso é positivo. Mas é preciso compreender algo fundamental: regular não significa eliminar o problema. Significa identificá-lo, distribuí-lo e gerenciá-lo com responsabilidade.
A boa notícia é que a norma do CFM também traz segurança. Pela primeira vez, o médico tem diretrizes claras sobre como utilizar IA, sem ultrapassar limites éticos. O paciente ganha direito à informação, e as instituições passam a ter parâmetros objetivos de governança.
No fundo, o que a resolução do CFM faz é impedir dois extremos igualmente perigosos: a tecnofobia e a tecnolatria. Não devemos demonizar a IA. Mas tampouco podemos idolatrá-la.
A Inteligência Artificial não substitui o médico. Ela amplia sua capacidade. Mas toda ampliação de poder exige ampliação de responsabilidade.
A IA não trata o paciente. Não evolui o prontuário. Não responde a processo ético. E não indeniza o paciente em caso de erro. Quem responde é o médico. E a instituição responsável pelo cuidado.
A história da medicina é cheia de avanços tecnológicos que prometeram revolucionar o cuidado. Muitos cumpriram parte dessa promessa. Outros apenas mudaram a forma dos problemas. A Inteligência Artificial certamente transformará a medicina. Mas há um equívoco perigoso em acreditar que tecnologia substitui
discernimento humano.
Algoritmos não possuem prudência clínica, responsabilidade ética ou empatia. Não conhecem o peso de uma decisão difícil diante de um paciente real. Se a medicina esquecer isso, a IA não será uma revolução — será apenas mais um instrumento sofisticado para produzir erros em escala.
*Renato Assis é advogado há 20 anos, especialista em Direito Médico e Empresarial, professor e empresário. É conselheiro jurídico e científico da ANADEM. Seu escritório de advocacia atua em defesa de médicos em todo o país.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Site: www.renatoassis.com.br
Instagram: @renatoassis.advogado
As opiniões expressas neste texto são de responsabilidade exclusiva do(a) autor(a) e não refletem, necessariamente, o posicionamento e a visão do Estado de Minas sobre o tema.
