cérebro com metade tecnologia e metade humano

Apesar do alerta, OMS também se mostra 'entusiasmada' com o uso apropriado de tecnologias, incluindo modelos de linguagem, para apoiar profissionais de saúde

Seanbatty/Pixabay
A Organização Mundial da Saúde (OMS) emitiu um comunicado na terça-feira (16) solicitando cautela no emprego da inteligência artificial (IA) para 'proteger e promover o bem-estar, a segurança e a autonomia humanas e preservar a saúde pública'. Segundo a OMS, a introdução de tecnologias no setor da saúde carece de preocupação comum.

A OMS destaca que a adoção apressada de sistemas não testados pode provocar erros por parte dos profissionais de saúde, prejudicar pacientes, abalar a confiança na IA e, consequentemente, comprometer (ou postergar) os benefícios e aplicações de longo prazo dessas tecnologias globalmente. A organização expressa preocupação com a possibilidade de treinar IAs com dados tendenciosos, gerar respostas incorretas que pareçam verdadeiras e potencialmente estimular a desinformação.
 
A OMS aconselhou os formuladores de políticas a se empenharem em garantir a segurança e proteção dos pacientes enquanto as empresas de tecnologia buscam comercializar as tecnologias. Modelos de linguagem gerados por IA, como o ChatGPT, tentam imitar a compreensão, processamento e produção da comunicação humana. A 'difusão pública meteórica' e o 'crescente uso experimental para fins relacionados à saúde estão gerando um entusiasmo significativo', avalia a OMS.
 
A organização também se mostra 'entusiasmada' com o uso apropriado de tecnologias, incluindo modelos de linguagem, para apoiar profissionais de saúde. No entanto, a OMS afirma estar preocupada com a falta de cuidado consistente no emprego dessas tecnologias. A agência ressalta que é 'imperativo' que os riscos da adesão a essas tecnologias sejam 'cuidadosamente' avaliados.

No comunicado, a OMS elenca as preocupações que motivaram o alerta

  • Dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;
  • Modelos de linguagem geram respostas que podem parecer confiáveis e plausíveis para um usuário final, mas essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
  • Modelos de linguagem podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;
  • Modelos de linguagem podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável.