Uso de inteligência artificial em hospitais: quais são os limites?
Levantamento revela que 18% das unidades de saúde do Brasil operam com algum tipo de IA; especialista em tecnologia discute a responsabilidade do profissional
compartilhe
SIGA
A inteligência artificial está ganhando os corredores dos hospitais brasileiros em um ritmo acelerado. O levantamento TIC Saúde 2025, realizado pelo Cetic.br e publicado na última terça-feira (12/5), revelou que 18% das unidades de saúde no país já operam com algum tipo de IA.
O movimento é puxado principalmente pela rede privada, onde o índice de adoção chega a 25%, enquanto o setor público registra 11%. Curiosamente, a porta de entrada dessa revolução não são sistemas inacessíveis, mas ferramentas populares como o ChatGPT e o Gemini, adotadas por 76% dos locais que utilizam a tecnologia.
- Leucemia infantil: inteligência artificial pode ajudar no diagnóstico?
- As doenças antes incuráveis que estão ganhando tratamentos graças à IA
O foco principal das instituições tem sido a organização de processos clínicos e administrativos, além do reforço na segurança digital. No entanto, barreiras como o alto custo e a falta de mão de obra capacitada ainda freiam uma adesão mais ampla. Apesar dos desafios, a digitalização é uma base sólida: 92% dos estabelecimentos brasileiros já abandonaram o papel e utilizam sistemas eletrônicos para o registro de informações dos pacientes.
Diante deste cenário, o Conselho Federal de Medicina (CFM) estabeleceu as primeiras normas para o uso da IA no setor, reforçando que a palavra final deve ser sempre humana. Para Elemar Júnior, especialista em tecnologia e CEO da eximia.co, essa regulação é vital para definir a autoria do ato médico. Ele defende que a tecnologia deve ser vista como uma ferramenta de apoio, um "coadjuvante de luxo" que jamais retira o peso das decisões e da assinatura do profissional no prontuário.
Leia Mais
A grande questão, segundo Elemar, reside na responsabilidade ética e jurídica. O especialista ressalta que um médico jamais poderá culpar o algoritmo por um diagnóstico equivocado ou um tratamento falho. "O ponto mais importante é a questão da responsabilidade. Um médico não pode utilizar a inteligência artificial e depois culpá-la por um eventual erro. Como a responsabilidade é sempre do profissional, a decisão final também tem que ser dele", pontua.
Além dos limites legais, existe o fator humano que os códigos ainda não conseguem replicar. Para Elemar, embora a IA seja imbatível ao processar volumes massivos de dados, ela carece do chamado "feeling" clínico.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
"Nada substitui a experiência. O médico tem uma percepção que é tácita e não explícita. Ele consegue tomar decisões e perceber problemas com dados que ele ainda nem tem em mãos, enquanto a IA faz análises apenas em cima do que já possui", ressalta.