Jornal Estado de Minas

DIREITO & JUSTIÇA

Médico não faz milagre... nem IA.

 

@font-face {font-family:"MS Mincho"; panose-1:2 2 6 9 4 2 5 8 3 4; mso-font-alt:"%uFF2D%uFF33 %u660E%u671D"; mso-font-charset:128; mso-generic-font-family:modern; mso-font-pitch:fixed; mso-font-signature:-536870145 1791491579 134217746 0 131231 0;}@font-face {font-family:SimSun; panose-1:2 1 6 0 3 1 1 1 1 1; mso-font-alt:%u5B8B%u4F53; mso-font-charset:134; mso-generic-font-family:auto; mso-font-pitch:variable; mso-font-signature:515 680460288 22 0 262145 0;}@font-face {font-family:"Cambria Math"; panose-1:2 4 5 3 5 4 6 3 2 4; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:variable; mso-font-signature:-536870145 1107305727 0 0 415 0;}@font-face {font-family:Calibri; panose-1:2 15 5 2 2 2 4 3 2 4; mso-font-charset:0; mso-generic-font-family:swiss; mso-font-pitch:variable; mso-font-signature:-536859905 -1073732485 9 0 511 0;}@font-face {font-family:Cambria; panose-1:2 4 5 3 5 4 6 3 2 4; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:variable; mso-font-signature:-536869121 1107305727 33554432 0 415 0;}@font-face {font-family:"\@MS Mincho"; panose-1:2 2 6 9 4 2 5 8 3 4; mso-font-charset:128; mso-generic-font-family:modern; mso-font-pitch:fixed; mso-font-signature:-536870145 1791491579 134217746 0 131231 0;}@font-face {font-family:"\@SimSun"; panose-1:2 1 6 0 3 1 1 1 1 1; mso-font-charset:134; mso-generic-font-family:auto; mso-font-pitch:variable; mso-font-signature:515 680460288 22 0 262145 0;}p.MsoNormal, li.MsoNormal, div.MsoNormal {mso-style-unhide:no; mso-style-qformat:yes; mso-style-parent:""; margin:0cm; mso-pagination:widow-orphan; font-size:12.0pt; font-family:"Cambria",serif; mso-fareast-font-family:"MS Mincho"; mso-bidi-font-family:SimSun; mso-fareast-language:EN-US;}a:link, span.MsoHyperlink {mso-style-priority:99; color:blue; mso-themecolor:hyperlink; text-decoration:underline; text-underline:single;}a:visited, span.MsoHyperlinkFollowed {mso-style-noshow:yes; mso-style-priority:99; color:purple; mso-themecolor:followedhyperlink; text-decoration:underline; text-underline:single;}.MsoChpDefault {mso-style-type:export-only; mso-default-props:yes; font-family:"Cambria",serif; mso-ascii-font-family:Cambria; mso-fareast-font-family:"MS Mincho"; mso-hansi-font-family:Cambria; mso-bidi-font-family:SimSun; mso-font-kerning:0pt; mso-ligatures:none; mso-fareast-language:EN-US;}div.WordSection1 {page:WordSection1;}

O CFM publicou em fevereiro a Resolução nº 2.454/2026, que regulamenta o uso da Inteligência Artificial no âmbito da medicina. Muito além de uma mera norma corporativa, trata-se de um verdadeiro marco setorial: reconhece que a IA pode ampliar diagnósticos, otimizar fluxos e apoiar decisões clínicas — mas deixa claro que tecnologia não substitui o médico. E essa frase é o centro de tudo.





 

A resolução estabelece o óbvio — que, ainda assim, precisa ser dito: a IA deve ser utilizada exclusivamente como ferramenta de apoio, e o julgamento clínico precisa permanecer 100% humano. Até porque a responsabilidade continua sendo 100% humana. Em outras palavras: o algoritmo pode ajudar, direcionar e sugerir. Mas quem decide — e responde pelas consequências — continua sendo o médico. E ninguém mais.

 

A resolução não chove no molhado. Ela busca evitar que os médicos façam justamente o que profissionais de outras áreas vêm fazendo: terceirizar o senso crítico e assumir o lugar de copiloto — função que deveria caber à própria IA. O problema é que, no caso da medicina, essa inversão não compromete apenas a originalidade do trabalho. Ela pode comprometer a saúde do paciente.

 

Há ainda um outro risco silencioso: o empobrecimento intelectual do próprio profissional. Pesquisa, análise crítica e raciocínio clínico são partes essenciais do aprendizado médico. Quando essas etapas são terceirizadas para algoritmos, o resultado tende a ser uma perigosa regressão cognitiva.





 

Vivemos um momento em que ferramentas generativas produzem laudos, sugerem condutas e oferecem probabilidades diagnósticas com impressionante velocidade. Nesse contexto, o risco não está apenas no erro técnico, mas na tentação da delegação acrítica.

 

A resolução do CFM acerta ao impor três pilares fundamentais para o uso da IA na medicina: validação científica dos sistemas utilizados, certificação regulatória adequada e monitoramento contínuo. O texto dialoga diretamente com o PL nº 2.338/2023 — o marco legal geral da IA no Brasil — que classifica sistemas por risco e exige avaliações de impacto, auditorias e supervisão humana para aplicações de alto risco, como as da saúde.

 

Não se trata de dificultar ou inviabilizar a inovação tecnológica. Trata-se de impedir que a inovação se transforme em imprudência, trazendo riscos à segurança dos pacientes.





 

A convergência entre o CFM e o projeto de lei é estratégica. Enquanto o PL estabelece princípios amplos — transparência, explicabilidade e responsabilização — a resolução do CFM traduz esses princípios para o contexto da prática médica. Sem esse detalhamento, a IA em saúde ficaria em um limbo jurídico e regulatório. E limbo regulatório é terreno fértil para erros, litígios e, em casos extremos, tragédias.

 

Mas há um outro protagonista nessa história: a proteção de dados. Dados de saúde não são apenas dados pessoais — são dados sensíveis. A LGPD exige tratamento reforçado, base legal adequada, minimização de coleta, finalidade específica e segurança da informação.

 

A resolução do CFM incorpora esses princípios e exige que o paciente seja informado quando a IA for utilizada em seu atendimento. Isso muda o cotidiano dos consultórios e hospitais. A transparência deixa de ser opcional. A governança deixa de ser discurso. E a segurança da informação deixa de ser “coisa da TI”, passando a ser responsabilidade de toda a instituição.





 

É nesse contexto que surge o papel estratégico do DPO — o Encarregado de Dados. Não como figura decorativa para cumprir checklist de compliance, mas como agente central no ciclo de vida da IA em saúde: desde a aquisição do sistema até sua implementação, operação e auditoria. Se uma instituição adquire uma ferramenta de IA sem avaliação de impacto, sem análise de base legal, sem testes de viés e sem política clara de supervisão humana, o problema não será tecnológico. Será jurídico. E ele chegará rápido.

 

Os riscos não são teóricos. São inúmeros — e com alto potencial danoso para profissionais e instituições.

 

Há riscos técnicos: alucinações algorítmicas, vieses estatísticos e modelos opacos.

Há riscos éticos: desumanização do cuidado e redução da autonomia do paciente.

Há riscos jurídicos: responsabilização por falhas e uso de sistemas não certificados.





Há riscos de segurança: vazamentos, ataques cibernéticos e reidentificação de dados.

 

A resolução do CFM reconhece esses riscos — e isso é positivo. Mas é preciso compreender algo fundamental: regular não significa eliminar o problema. Significa identificá-lo, distribuí-lo e gerenciá-lo com responsabilidade.

 

A boa notícia é que a norma do CFM também traz segurança. Pela primeira vez, o médico tem diretrizes claras sobre como utilizar IA, sem ultrapassar limites éticos. O paciente ganha direito à informação, e as instituições passam a ter parâmetros objetivos de governança.

 

No fundo, o que a resolução do CFM faz é impedir dois extremos igualmente perigosos: a tecnofobia e a tecnolatria. Não devemos demonizar a IA. Mas tampouco podemos idolatrá-la.





 

A Inteligência Artificial não substitui o médico. Ela amplia sua capacidade. Mas toda ampliação de poder exige ampliação de responsabilidade.

 

A IA não trata o paciente. Não evolui o prontuário. Não responde a processo ético. E não indeniza o paciente em caso de erro. Quem responde é o médico. E a instituição responsável pelo cuidado.

 

A história da medicina é cheia de avanços tecnológicos que prometeram revolucionar o cuidado. Muitos cumpriram parte dessa promessa. Outros apenas mudaram a forma dos problemas. A Inteligência Artificial certamente transformará a medicina. Mas há um equívoco perigoso em acreditar que tecnologia substitui discernimento humano.

 

Algoritmos não possuem prudência clínica, responsabilidade ética ou empatia. Não conhecem o peso de uma decisão difícil diante de um paciente real. Se a medicina esquecer isso, a IA não será uma revolução — será apenas mais um instrumento sofisticado para produzir erros em escala.

 

 

Renato Assis é advogado há 20 anos, especialista em Direito Médico e Empresarial, professor e empresário. É conselheiro jurídico e científico da ANADEM. Seu escritório de advocacia atua em defesa de médicos em todo o país.

Site: www.renatoassis.com.br

Instagram: @renatoassis.advogado