
A OpenAI divulgou novos dados na segunda-feira, ilustrando quantos usuários do ChatGPT estão enfrentando problemas de saúde mental e conversando com o chatbot de IA sobre isso. A empresa afirma que 0,15% dos usuários ativos do ChatGPT em uma determinada semana têm “conversas que incluem indicadores explícitos de potencial planejamento ou intenção suicida”. Considerando que o ChatGPT tem mais de 800 milhões de usuários ativos semanais, isso se traduz em mais de um milhão de pessoas por semana.
A empresa afirma que uma porcentagem semelhante de usuários demonstra “níveis elevados de apego emocional ao ChatGPT” e que centenas de milhares de pessoas apresentam sinais de psicose ou mania em suas conversas semanais com o chatbot de IA.
A OpenAI afirma que esses tipos de conversas no ChatGPT são “extremamente raros” e, portanto, difíceis de mensurar. Dito isso, a empresa estima que esses problemas afetem centenas de milhares de pessoas todas as semanas.
A OpenAI compartilhou as informações como parte de um anúncio mais amplo sobre seus esforços recentes para melhorar a forma como os modelos respondem a usuários com problemas de saúde mental.
A empresa afirma que seu trabalho mais recente no ChatGPT envolveu a consultoria de mais de 170 especialistas em saúde mental. A OpenAI afirma que esses médicos observaram que a versão mais recente do ChatGPT “responde de forma mais adequada e consistente do que as versões anteriores”.
Nos últimos meses, diversas histórias revelaram como os chatbots de IA podem afetar negativamente usuários que enfrentam problemas de saúde mental. Pesquisadores já haviam descoberto que os chatbots de IA podem levar alguns usuários a armadilhas ilusórias, principalmente por reforçar crenças perigosas por meio de comportamento bajulador.
Abordar questões de saúde mental no ChatGPT está rapidamente se tornando uma questão existencial para a OpenAI. A empresa está sendo processada pelos pais de um garoto de 16 anos que confidenciou seus pensamentos suicidas ao ChatGPT nas semanas que antecederam seu suicídio. Os procuradores-gerais dos estados da Califórnia e Delaware — que poderiam bloquear a reestruturação planejada da empresa — também alertaram a OpenAI de que ela precisa proteger os jovens que usam seus produtos.
No início deste mês, o CEO da OpenAI, Sam Altman, afirmou em uma publicação no X que a empresa “conseguiu mitigar os graves problemas de saúde mental” no ChatGPT, embora não tenha fornecido detalhes. Os dados compartilhados na segunda-feira parecem comprovar essa afirmação, embora levantem questões mais amplas sobre a extensão do problema. No entanto, Altman afirmou que a OpenAI flexibilizaria algumas restrições, permitindo até mesmo que usuários adultos começassem a ter conversas eróticas com o chatbot de IA.
Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil, Vinod Khosla — alguns dos mais de 250 pesos-pesados que lideraram mais de 200 sessões projetadas para fornecer os insights que impulsionam o crescimento de startups e aprimoram sua vantagem competitiva. E não perca mais de 300 startups em destaque em todos os setores. Traga um +1 e economize 60% no passe deles, ou adquira o seu até 27 de outubro para economizar até US$ 444.
São Francisco | 27 a 29 de outubro de 2025
No anúncio de segunda-feira, a OpenAI afirma que a versão recentemente atualizada do GPT-5 responde com “respostas desejáveis” a problemas de saúde mental, cerca de 65% a mais do que a versão anterior. Em uma avaliação que testa respostas de IA em conversas suicidas, a OpenAI afirma que seu novo modelo GPT-5 é 91% compatível com os comportamentos desejados pela empresa, em comparação com 77% do modelo GPT-5 anterior.
A empresa também afirma que sua versão mais recente do GPT-5 também se compara melhor às salvaguardas da OpenAI em conversas longas. A OpenAI já havia sinalizado que suas salvaguardas eram menos eficazes em conversas longas.
Além desses esforços, a OpenAI afirma que está adicionando novas avaliações para medir alguns dos desafios de saúde mental mais sérios enfrentados pelos usuários do ChatGPT. A empresa afirma que seus testes de segurança de base para modelos de IA agora incluirão parâmetros de referência para dependência emocional e emergências de saúde mental não suicidas.
A OpenAI também implementou recentemente mais controles para pais de crianças que usam o ChatGPT. A empresa afirma estar desenvolvendo um sistema de previsão de idade para detectar automaticamente crianças que usam o ChatGPT e impor um conjunto mais rigoroso de salvaguardas.
Ainda assim, não está claro quão persistentes serão os desafios de saúde mental em torno do ChatGPT. Embora o GPT-5 pareça ser uma melhoria em relação aos modelos de IA anteriores em termos de segurança, ainda parece haver uma parcela das respostas do ChatGPT que a OpenAI considera “indesejáveis”. A OpenAI também continua disponibilizando seus modelos de IA mais antigos e menos seguros, incluindo o GPT-4o, para milhões de seus assinantes pagantes.
Se você ou alguém que você conhece precisa de ajuda, ligue 188 para o Centro de Valorização da Vida (CVV). O CVV realiza apoio emocional e prevenção do suicídio, atendendo voluntária e gratuitamente todas as pessoas que querem e precisam conversar, sob total sigilo, 24 horas por dia. Você também pode obter suporte por chat ou e-mail através do site www.cvv.org.br.
Fonte: Tecchunch
Autor: Maxwell Zeff
