O CFM publicou em fevereiro a Resolução nº 2.454/2026, que regulamenta o uso da Inteligência Artificial no âmbito da medicina. Muito além de uma mera norma corporativa, trata-se de um verdadeiro marco setorial: reconhece que a IA pode ampliar diagnósticos, otimizar fluxos e apoiar decisões clínicas — mas deixa claro que tecnologia não substitui o médico. E essa frase é o centro de tudo.

A resolução estabelece o óbvio — que, ainda assim, precisa ser dito: a IA deve ser utilizada exclusivamente como ferramenta de apoio, e o julgamento clínico precisa permanecer 100% humano. Até porque a responsabilidade continua sendo 100% humana. Em outras palavras: o algoritmo pode ajudar, direcionar e sugerir. Mas quem decide — e responde pelas consequências — continua sendo o médico. E ninguém mais.

A resolução não chove no molhado. Ela busca evitar que os médicos façam justamente o que profissionais de outras áreas vêm fazendo: terceirizar o senso crítico e assumir o lugar de copiloto — função que deveria caber à própria IA. O problema é que, no caso da medicina, essa inversão não compromete apenas a originalidade do trabalho. Ela pode comprometer a saúde do paciente.

Há ainda um outro risco silencioso: o empobrecimento intelectual do próprio profissional. Pesquisa, análise crítica e raciocínio clínico são partes essenciais do aprendizado médico. Quando essas etapas são terceirizadas para algoritmos, o resultado tende a ser uma perigosa regressão cognitiva.

Vivemos um momento em que ferramentas generativas produzem laudos, sugerem condutas e oferecem probabilidades diagnósticas com impressionante velocidade.

Nesse contexto, o risco não está apenas no erro técnico, mas na tentação da delegação acrítica. A resolução do CFM acerta ao impor três pilares fundamentais para o uso da IA na medicina: validação científica dos sistemas utilizados, certificação regulatória adequada e monitoramento contínuo.

O texto dialoga diretamente com o PL nº 2.338/2023 — o marco legal geral da IA no Brasil — que classifica sistemas por risco e exige avaliações de impacto, auditorias e supervisão humana para aplicações de
alto risco, como as da saúde.

Não se trata de dificultar ou inviabilizar a inovação tecnológica. Trata-se de impedir que a inovação se transforme em imprudência, trazendo riscos à segurança dos pacientes.

A convergência entre o CFM e o projeto de lei é estratégica. Enquanto o PL estabelece princípios amplos — transparência, explicabilidade e responsabilização — a resolução do CFM traduz esses princípios para o contexto da prática médica. Sem esse detalhamento, a IA em saúde ficaria em um limbo jurídico e regulatório. E limbo regulatório é terreno fértil para erros, litígios e, em casos extremos, tragédias.

Mas há um outro protagonista nessa história: a proteção de dados. Dados de saúde não são apenas dados pessoais — são dados sensíveis. A LGPD exige tratamento reforçado, base legal adequada, minimização de coleta, finalidade específica e segurança da informação.

A resolução do CFM incorpora esses princípios e exige que o paciente seja informado quando a IA for utilizada em seu atendimento. Isso muda o cotidiano dos consultórios e hospitais. A transparência deixa de ser opcional. A governança deixa de ser discurso. E a segurança da informação deixa de ser “coisa da TI”, passando a ser responsabilidade de toda a instituição.

É nesse contexto que surge o papel estratégico do DPO — o Encarregado de Dados. Não como figura decorativa para cumprir checklist de compliance, mas como agente central no ciclo de vida da IA em saúde: desde a aquisição do sistema até sua implementação, operação e auditoria. Se uma instituição adquire uma ferramenta de IA sem avaliação de impacto, sem análise de base legal, sem testes de viés e sem política clara de supervisão humana, o problema não será tecnológico. Será jurídico.

E ele chegará rápido.

Os riscos não são teóricos. São inúmeros — e com alto potencial danoso para profissionais e instituições.

Há riscos técnicos: alucinações algorítmicas, vieses estatísticos e modelos opacos.

Há riscos éticos: desumanização do cuidado e redução da autonomia do paciente.

Há riscos jurídicos: responsabilização por falhas e uso de sistemas não certificados.

Há riscos de segurança: vazamentos, ataques cibernéticos e reidentificação de dados.

A resolução do CFM reconhece esses riscos — e isso é positivo. Mas é preciso compreender algo fundamental: regular não significa eliminar o problema. Significa identificá-lo, distribuí-lo e gerenciá-lo com responsabilidade.

A boa notícia é que a norma do CFM também traz segurança. Pela primeira vez, o médico tem diretrizes claras sobre como utilizar IA, sem ultrapassar limites éticos. O paciente ganha direito à informação, e as instituições passam a ter parâmetros objetivos de governança.

No fundo, o que a resolução do CFM faz é impedir dois extremos igualmente perigosos: a tecnofobia e a tecnolatria. Não devemos demonizar a IA. Mas tampouco podemos idolatrá-la.

A Inteligência Artificial não substitui o médico. Ela amplia sua capacidade. Mas toda ampliação de poder exige ampliação de responsabilidade.

A IA não trata o paciente. Não evolui o prontuário. Não responde a processo ético. E não indeniza o paciente em caso de erro. Quem responde é o médico. E a instituição responsável pelo cuidado.

A história da medicina é cheia de avanços tecnológicos que prometeram revolucionar o cuidado. Muitos cumpriram parte dessa promessa. Outros apenas mudaram a forma dos problemas. A Inteligência Artificial certamente transformará a medicina. Mas há um equívoco perigoso em acreditar que tecnologia substitui
discernimento humano.

Algoritmos não possuem prudência clínica, responsabilidade ética ou empatia. Não conhecem o peso de uma decisão difícil diante de um paciente real. Se a medicina esquecer isso, a IA não será uma revolução — será apenas mais um instrumento sofisticado para produzir erros em escala.

 

*Renato Assis é advogado há 20 anos, especialista em Direito Médico e Empresarial, professor e empresário. É conselheiro jurídico e científico da ANADEM. Seu escritório de advocacia atua em defesa de médicos em todo o país.

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

Site: www.renatoassis.com.br
Instagram: @renatoassis.advogado

compartilhe