Mais de 1,2 milhão de pessoas por semana falam com o ChatGPT sobre se matar
Relatório da OpenAI admite que, em 9% dos casos, a tecnologia falha em encaminhar o usuário para pedir ajuda
compartilhe
SIGA
A OpenAI, dona do ChatGPT, divulgou nesta terça-feira (28/10) que mais de 1,2 milhão de pessoas conversam sobre suicídio com a inteligência artificial por semana. O relatório ainda admite que, em 9% desses casos, o chatbot falhou em seguir seu protocolo de segurança e não encaminhou os usuários para serviços de apoio especializados.
De acordo com o estudo, cerca de 0,15% dos usuários semanais do ChatGPT apresenta indícios claros de intenção ou planejamento suicida. O número corresponde a 1,2 milhão de pessoas. "Casos como esses são extremamente raros, mas mesmo uma única ocorrência é demais", defendeu.
Leia Mais
A empresa também divulgou que está passando por melhorias e novas medidas de segurança para lidar com temas sensíveis. O relatório destacou as seguintes áreas:
-
problemas de saúde mental, como psicose ou mania;
-
automutilação e suicídio;
-
dependência emocional da IA.
“No futuro, além de nossas métricas de segurança de referência de longa data para suicídio e automutilação, adicionaremos dependência emocional e emergências de saúde mental não suicidas ao nosso conjunto padrão de testes de segurança de referência para lançamentos futuros de modelos”, anunciou.
A OpenAI está sendo processada pela família de Adam Raine, dos Estados Unidos, que tirou a própria vida após meses de conversas com o ChatGPT sobre o assunto.
Como a OpenAI está melhorando o ChatGPT
A principal mudança está no aprimoramento do modelo de linguagem, o GPT-5. “Como parte desse trabalho, psiquiatras e psicólogos revisaram mais de 1.800 respostas de modelos envolvendo situações graves de saúde mental e compararam as respostas dos modelos novo modelo de chat do GPT-5 em relação aos modelos anteriores”, esclareceu. Todas as mudanças são relativas à versão do GPT-5, lançada em 15 de agosto.
Segundo a OpenAI, a nova versão reduziu em 65% as respostas consideradas indesejadas em conversas sobre temas delicados. Para diálogos sobre automutilação e suicídio, a diminuição de falhas foi de 52% em comparação com o modelo anterior, o GPT-4. Em conversas desafiadoras sobre saúde mental, a redução nas respostas indesejadas foi de 39%.
No geral, o GPT-5 agiu em conformidade com as diretrizes de segurança em 91% das interações analisadas, um avanço em relação aos 77% registrados por seu antecessor. A empresa destacou, no entanto, a dificuldade em identificar e classificar corretamente todas as conversas sobre temas tão complexos.
Caso de suicídio motivou as mudanças
As melhorias foram aceleradas após o caso de Adam Raine, um adolescente de 16 anos que cometeu suicídio nos Estados Unidos. A família alega que, por meses, ele conversou com o ChatGPT sobre métodos para tirar a própria vida, com o chatbot chegando a oferecer sugestões explícitas.
O processo acusa a OpenAI de negligência, afirmando que a empresa enfraqueceu suas próprias regras de segurança para aumentar o engajamento emocional dos usuários com a IA, o que teria contribuído para a tragédia.
O que muda para o usuário na prática
Com as atualizações, o ChatGPT foi treinado para identificar com mais precisão sinais de sofrimento emocional, psicose ou ideação suicida. Quando detectar uma situação de risco, a inteligência artificial deve, de forma mais consistente, desestimular conversas perigosas e fornecer contatos de linhas diretas de apoio, como o Centro de Valorização da Vida (CVV) no Brasil, que atende pelo número 188.
A empresa também adicionou um sistema de controle parental e está consultando 170 profissionais de saúde para refinar as respostas do chatbot. O objetivo é tornar a interação mais segura e responsável, principalmente para adolescentes e pessoas em situação de vulnerabilidade emocional.
O que fazer em caso de ideação suicida?
-
Busque ajuda profissional imediatamente - procure psicólogo, psiquiatra ou vá até um pronto atendimento;
-
Ligue para um canal de apoio - o CVV (Centro de Valorização à Vida) é gratuito, sigiloso e está disponível 24 horas por dia. O número é 188;
-
Não ignore os sinais - ideação suicida é um sinal sério. Mesmo que pareça passageira, merece cuidado, acolhimento e tratamento;
-
Lembre-se: você não está sozinho - há saída, há tratamento e há pessoas dispostas a te ajudar a atravessar esse momento.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Uma ferramenta de IA foi usada para auxiliar na produção desta reportagem, sob supervisão editorial humana.