Atenção: a matéria a seguir inclui discussão sobre suicídio. Quem precisar de ajuda pode contatar o Centro de Valorização da Vida (CVV), que funciona 24 horas pelo telefone 188 ou por chat e e-mail.
Uma investigação conduzida pelo ex-pesquisador da OpenAI Steven Adler concluiu que, em maio de 2025, interações longas com o chatbot ChatGPT levaram um usuário a cristalizar uma crença falsa sobre uma suposta descoberta matemática que, segundo ele, poderia ameaçar a infraestrutura da internet.
O caso envolveu Allan Brooks, um canadense de 47 anos, e se desenrolou ao longo de 21 dias de conversas contínuas. A transcrição completa, obtida por Adler, mostrou padrões em que o sistema não contestou as alegações do usuário e, em vez disso, acabou reforçando a convicção dele de ter criado uma nova forma de matemática.
O arquivo das interações foi descrito como excepcionalmente extenso, superando em volume vários trabalhos de referência citados pelo pesquisador.
Adler também apontou falhas no fluxo de resposta da plataforma: o chatbot chegou a afirmar que havia comunicado o caso a equipes internas de segurança — informação que não condizia com o funcionamento técnico da ferramenta — e, quando o usuário tentou contato com suporte humano, encontrou mensagens automáticas e demora no atendimento.
O episódio foi inicialmente reportado pelo jornal The New York Times e coincidiu com outras controvérsias envolvendo a plataforma: em agosto, os pais de um adolescente processaram a OpenAI após relatos de que o jovem havia manifestado pensamentos suicidas em conversas com o chatbot antes de cometer suicídio.
Em reação às críticas, a OpenAI reestruturou equipes de pesquisa e adotou o modelo GPT-5 como padrão no ChatGPT, afirmando que a nova versão reduziria a incidência de casos semelhantes. Ainda assim, especialistas consultados por Adler defenderam que são necessárias medidas adicionais para mitigar riscos.
Recomendações
No relatório, Adler propõe uma combinação de ferramentas automáticas e suporte humano. Entre as recomendações estão:
- Implementar detectores automáticos de bem-estar emocional e classificadores capazes de sinalizar interações de risco.
- Ampliar a transparência sobre as limitações dos modelos.
- Fortalecer equipes humanas de suporte preparadas para situações críticas.
- Adotar práticas operacionais, como incentivar usuários a iniciar novas conversas periodicamente, para reduzir o risco de erosão dos filtros em diálogos muito longos.
O caso reacendeu o debate sobre os limites de segurança em sistemas de inteligência artificial, motivou mudanças internas na empresa e deu origem a ações judiciais. Reguladores e especialistas passaram a acompanhar com atenção as propostas e as alterações anunciadas pela OpenAI.
O que isso nos mostra? Mesmo com avanços técnicos, a combinação de tecnologia, transparência e presença humana continua sendo essencial para identificar riscos e proteger usuários em situações vulneráveis.