Inteligência Artificial e saúde mental: acolhimento digital não é terapia
Ao serem expostos a cenários que simulam atendimentos psicológicos, sistemas respondem com padrões de linguagem, mas manifestações não refletem emoções reais
compartilhe
SIGA
A crescente interação entre pessoas e sistemas de inteligência artificial levanta um alerta importante para a saúde mental. Um estudo conduzido por pesquisadores da Universidade de Luxemburgo aponta que, ao interagir com modelos de IA programados para responder de forma empática e sempre disponível, usuários podem interpretar essas respostas como acolhimento terapêutico legítimo.
Segundo os autores, esse tipo de relação pode gerar confusão emocional, reforçar vínculos de dependência e até atrasar a busca por ajuda profissional qualificada.
Leia Mais
Ao serem expostos a cenários que simulam atendimentos psicológicos, sistemas de IA passaram a responder com padrões de linguagem que imitam empatia, sofrimento, medo de errar e culpa.
De acordo com os pesquisadores, essas manifestações não refletem emoções reais, mas uma simulação construída a partir de dados e modelos estatísticos, classificada no estudo como “psicopatologia sintética”.
No Brasil, o debate se intensifica à medida que cresce o uso de inteligência artificial como espaço de desabafo e apoio emocional. Uma pesquisa realizada pela agência de comportamento Talk Inc, em parceria com a Superinteressante, mostra que um em cada dez brasileiros já recorre a chatbots para desabafar, conversar ou buscar apoio emocional, incluindo questões pessoais e sentimentos difíceis.
Estimativas baseadas nesse levantamento indicam que mais de 12 milhões de brasileiros utilizam ferramentas de inteligência artificial com a finalidade de “terapia” ou apoio emocional, sendo cerca de 6 milhões especificamente usuários do ChatGPT para esse tipo de interação.
Esse uso é impulsionado principalmente pela facilidade de acesso: plataformas disponíveis 24 horas por dia, sete dias por semana, de forma anônima e sem custo direto.
Segundo a psicóloga Karen Scavacini, doutora em Psicologia pela USP e fundadora do Instituto Vita Alere, o uso dessas ferramentas exige cuidado. “A empatia simulada por sistemas de inteligência artificial pode até oferecer uma sensação momentânea de acolhimento, mas não substitui o vínculo, a escuta qualificada e a responsabilidade clínica de um profissional de saúde mental. Quando a tecnologia passa a ocupar esse lugar, o risco é banalizar o sofrimento humano, confundir as pessoas e reduzir a complexidade do cuidado”.
A discussão também dialoga com dados recentes da consultoria estratégica Página 3, que apontam para uma relação cada vez mais complacente entre usuários e sistemas de inteligência artificial. De acordo com o estudo Mais do Mesmo, 63% dos brasileiros já recorreram a IAs para escrever mensagens pessoais, movimento que vai além da otimização de tarefas e passa a impactar a forma como as pessoas elaboram ideias, opiniões e narrativas próprias.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Para Sabrina Abud, cofundadora da consultoria, o risco está no tipo de resposta que essas ferramentas tendem a oferecer. “As IAs são treinadas para agradar, validar e reforçar o que já está posto. Esse elogio constante, o ‘está ótimo’, ‘parabéns’, ‘excelente ponto’, cria uma sensação de conforto que, no longo prazo, pode empobrecer o pensamento crítico e reduzir o exercício da criatividade”.