O estudo da Faculdade de Medicina da UFMG, intitulado "Large language models in healthcare: an assessment of quality", foi um dos vencedores do Grand Challenges, iniciativa que promove a inovação para resolução de problemas urgentes de saúde e desenvolvimento global, financiada pela Bill & Melinda Gates Foundation. A pesquisa propõe treinar o ChatGPT - chatbot online de inteligência artificial, para fornecer respostas mais confiáveis sobre tratamentos de saúde. O objetivo é melhorar o acesso, especialmente das populações mais pobres, à medicina especializada. 

Os autores principais do estudo são Henrique Lima, doutorando do Programa de Pós-graduação em Ciências Aplicadas à Cirurgia e Oftalmologia, e Vivian Resende, professora do Departamento de Cirurgia.



Segundo eles, o projeto deve ser desenvolvido nos idiomas mais falados no mundo, para a inclusão da maioria dos países. "É uma ferramenta estratégica para aproveitar o potencial da inteligência artificial (IA) para melhorar a qualidade de vida nas comunidades vulneráveis, garantindo que todos se beneficiem dos avanços na tecnologia."

Juntamente com cientistas do Paquistão e dos Estados Unidos, outros professores da UFMG também compõem o grupo que elaborou o estudo: Pedro Henrique Trocoli-Couto, Marcelo Mamede e Zilma Reis, da Faculdade de Medicina, e Adriana Pagano, da Faculdade de Letras.

Potencial


De acordo com Henrique Lima, a ideia surgiu mediante a constatação do crescimento mundial do uso de plataformas digitais para orientação em medicina. “De forma geral, a população utiliza esses recursos para identificar sintomas, procurar diagnósticos ou tratamentos. Por isso, treinar uma IA própria para responder perguntas sobre saúde coletiva pode ser considerada uma opção viável”, defende.

Leia também: ChatGPT detecta doença rara em criança após ela passar por 17 médicos

Os autores acreditam que a plataforma também poderá auxiliar o trabalho de equipes de saúde, caso seja alcançada uma melhora significativa na qualidade das respostas. “Ainda existe o forte risco de utilizar informações online para diagnósticos, principalmente quando falamos do público leigo. Uma resposta mal formulada ou mal compreendida pode ser prejudicial”, ressalva Henrique Lima.

compartilhe