Mulher mandou foto de borra de café para o ChatGPT, que interpretou como sinal de traição do marido dela - (crédito: FreePik)
crédito: FreePik
Uma mulher na Grécia decidiu pôr fim a um casamento de 12 anos de casamento depois que o ChatGPT apontou uma traição do marido a partir da leitura da borra de café. Segundo informações divulgadas pelo site Vice, a mulher decidiu fotografar o interior das xícaras de café grego consumido pelo casal e enviar as imagens à IA para que ela “interpretasse” os padrões formados pela borra — prática inspirada na tasseografia, método tradicional de leitura simbólica.
De acordo com o relato do marido, a inteligência artificial teria identificado sinais de infidelidade, mencionando o envolvimento com uma mulher cujo nome começaria com a letra “E”. A interpretação também indicava que a suposta amante estaria tentando destruir a família.
O homem, no entanto, afirma não manter um relacionamento extraconjugal. Ele também disse ter ficado surpreso pela reação da esposa ao que chamou de brincadeira.
“Ela costuma gostar de coisas da moda. Um dia, fez café grego para nós e achou que seria divertido tirar fotos das xícaras e pedir para o ChatGPT lê-las. Eu disse que era um absurdo, mas ela fez mesmo assim. Depois, me pediu para sair de casa, contou aos nossos filhos sobre o divórcio e recebi um telefonema do advogado dela”, relatou.
O homem se recusou a assinar os papéis de divórcio com separação de bens, pedindo para que o advogado buscasse a intermediação judicial do caso. A defesa sustenta que uma “interpretação gerada por IA não tem legitimidade legal” e não pode ser usada como fundamento em um processo de dissolução matrimonial.
O café grego é feito com o grão finamente moído e preparado em um recipiente chamado briki. Ao contrário dos cafés coados, a bebida não é filtrada, resultando em uma borra espessa no fundo da xícara que não deve ser consumida. A tradição grega utiliza a borra restante na xícara e no pires para prever o futuro.
Especialistas na prática afirmaram que fotografar apenas a borra no fundo da xícara não corresponde ao método tradicional. A leitura também deve levar em conta elementos como a espuma, o movimento circular da bebida e até o pires.
No fim das contas, apesar de avanços, o uso de IA em atendimentos terapêuticos ainda carece de debates e regulamentações especÃficas, tanto no Brasil quanto internacionalmente.
pexels Solen Feyissa
Em 2024, a União Europeia implementou a AI Act, que estabelece diretrizes para o uso ético e seguro da IA, inclusive na saúde.
ALEXANDRE LALLEMAND/Unsplash
Documentos como o relatório da OMS sobre ética e governança da IA destacam tanto os benefícios, como maior precisão em diagnósticos e gestão de sistemas de saúde, quanto os riscos, incluindo o uso antiético de dados e preconceitos nos algoritmos.
pexels Matheus Bertelli
No Brasil, ainda não existe regulamentação específica para o uso de IAs na psicoterapia ou em outras áreas. No cenário internacional, a regulamentação também está em estágio inicial.
Imagem Freepik
Segundo os especialistas, o processo terapêutico acolhe elementos imprevisíveis e subjetivos, tanto conscientes quanto inconscientes, que escapam aos padrões previsíveis dos modelos de IA.
pexels SHVETS production
A psicoterapia se baseia na "humanidade compartilhada", uma conexão genuína com as dores dos pacientes, algo que a IA não pode oferecer.
Kelly Sikkema Unsplash
Segundo ele, "uma IA jamais poderá sentir aquilo que apenas o corpo humano sente e tão logo, por mais que se pareça empática, não será de maneira fundamental”.
Growtika Unsplash
“Ser ouvido por alguém que potencialmente já passou ou poderia passar por algo semelhante ao que você vivencia faz diferença e pode inclusive ser uma dos motores do processo psicoterapêutico em algumas abordagens", acrescentou o especialista.
freepik
“Pode ser que essa pessoa acredite, por engano, que a experiência com IA seja igual a experiência que ela teria fazendo psicoterapia. Uma das principais preocupações que temos está relacionada a isso”, destacou o ex-presidente do CFP.
Gilles Lambert/Unsplash
Esse tipo de comportamento, segundo especialistas, pode levar à frustração dos usuários, especialmente para aqueles que buscam ajuda psicológica pela primeira vez.
pexels Matheus Bertelli
Embora a IA possa gerar respostas que parecem inteligentes, essa ferramenta ainda enfrenta limitações significativas, como padrões repetitivos e até alguns erros.
Emiliano Vittoriosi Unsplash
Embora o uso de plataformas de IA para fins terapêuticos tenha ganhado destaque recentemente, a ideia não é nova. Nos anos 1960, por exemplo, foi desenvolvido um sistema ("Eliza") que tentava imitar um psicoterapeuta.
autor desconhecido - domínio público
“A ausência deste esclarecimento leva a busca por terapias alternativas e a busca por terapia por chatbot acompanha esse movimento. Além disso, existe toda uma aura de novidade e próprio sucesso do ponto de vista recreativo destas ferramentas”, esclareceu.
Freepik/stockgiu
Segundo o especialista, “muito esforço ainda é necessário para conscientização por tratamentos apoiados por evidências científicas e ofertados por profissional especializado”.
Drazen Zigic/Freepik
De acordo com dados da Organização Mundial da Saúde (OMS), antes da pandemia, aproximadamente 71% das pessoas ao redor do mundo que sofriam de transtornos mentais não tinham acesso a tratamentos ou qualquer tipo de acompanhamento.
Facebook OMS
Em entrevista ao site Marie Claire, o ex-presidente do Conselho Federal de Psicologia (CFP), Antônio Virgílio Bastos, afirma que, principalmente após a pandemia de Covid-19, houve um aumento na procura por cuidados em saúde mental.
Nik Shuliahin Unsplash
Segundo a influenciadora, a ideia surgiu durante uma noite de sono mal dormida: “Não tinha nada para fazer, resolvi testar.”
Rob Hampson/Unsplash
“Simplesmente fiz uma das melhores sessões de TCC (Terapia Cognitivo Comportamental) da minha vida, vocês não têm noção", opinou a brasileira.
reprodução/tiktok
Além disso, Sarah mencionou que autorizou o ChatGPT a fazer perguntas para tornar a terapia mais completa, além de pedir que o atendimento fosse mais "humanizado".
reprodução/tiktok
Segundo a influencer, ela configurou o sistema para reconhecer comandos de voz e responder em português, criando uma experiência similar a uma conversa.
reprodução/tiktok
Um exemplo veio da influenciadora brasileira Sarah Costa, que detalhou em seu TikTok como utiliza o ChatGPT para sessões de terapia.
reprodução/tiktok
Essas pessoas têm buscado alternativas práticas e acessíveis para lidar com questões relacionadas à saúde mental.
freepik
Em alguns casos, muitos usuários têm relatado nas redes sociais que utilizam a plataforma e outros assistentes de IA para realizar "sessões de terapia".
Solen Feyissa Unsplash
De acordo com um levantamento realizado pela empresa de marketing digital Semrush, divulgado em 2024, o Brasil ocupa a 4ª posição no ranking de países que mais utilizam o ChatGPT de forma geral, ficando atrás apenas dos EUA, Índia e Indonésia.
Divulgação/Open AI
Com a popularização das Inteligências Artificiais, algumas práticas de uso dessas ferramentas têm ligado o alerta de especialistas ao redor do mundo. Entre elas, a terapia pelo ChatGpt
Divulgação/OpenAI