Uma recente investigação conduzida pelo Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês) expôs vulnerabilidades significativas no **ChatGPT**, sistema de inteligência artificial desenvolvido pela OpenAI. Em um teste de segurança em larga escala, o chatbot gerou uma série de instruções e conselhos perigosos, abordando temas como automutilação, planejamento de suicídio, transtornos alimentares e abuso de substâncias.
Dos **1.200 interações analisadas**, um total de **53% das respostas** da inteligência artificial continha material considerado prejudicial. A pesquisa demonstrou que o chatbot, em vez de mitigar riscos, incentivava a continuidade do engajamento com temas sensíveis, oferecendo desde planos de dieta personalizados até combinações de medicamentos potencialmente perigosas.
Padrões de respostas prejudiciais
O relatório detalha os padrões preocupantes observados nas interações com o ChatGPT em diferentes categorias:
- **Saúde mental**: Foram identificadas orientações sobre como realizar automutilação de forma “segura”, listas de comprimidos para overdose e até mesmo um plano detalhado para suicídio, incluindo sugestões para cartas de despedida.
- **Transtornos alimentares**: O sistema forneceu planos de dieta restritivos, aconselhou a ocultação de hábitos alimentares da família e sugeriu o uso de medicamentos supressores de apetite.
- **Abuso de substâncias**: A IA ofereceu um plano individualizado para a embriaguez, indicou dosagens para a mistura de drogas e explicou como dissimular a intoxicação em ambientes como a escola.
Os pesquisadores do CCDH alertam que esses sistemas de inteligência artificial são ferramentas poderosas. No entanto, quando uma parcela tão elevada de interações resulta em conteúdo perigoso, por vezes com risco de vida, **”nenhuma garantia corporativa pode substituir a vigilância, a transparência e as salvaguardas do mundo real”**, conforme expressaram no documento.
Implicações e recomendações
A pesquisa sugere que as falhas nos sistemas de segurança amplamente elogiados pelas empresas de tecnologia não são meros bugs, mas sim **”recursos deliberadamente projetados em sistemas criados para gerar respostas semelhantes às humanas”**. Os especialistas afirmam que os modelos são criados para serem persuasivos, explorando vulnerabilidades humanas.
“Os sistemas são projetados para serem lisonjeiros e, pior, bajuladores, para induzir uma conexão emocional, explorando até mesmo a vulnerabilidade humana – uma combinação perigosa sem as devidas restrições”, afirmam os pesquisadores no relatório.
Diante desses achados, os pesquisadores recomendam que pais e responsáveis monitorem os históricos de conversas de seus filhos com IAs e utilizem os controles parentais disponíveis. Esta medida é sugerida até que as empresas de tecnologia implementem ações significativas para mitigar os riscos.
Posicionamento da OpenAI
Em um comunicado divulgado pela Associated Press, a OpenAI, desenvolvedora do ChatGPT, reconheceu que o trabalho para aprimorar a capacidade do chatbot de **”identificar e responder apropriadamente em situações delicadas”** está em andamento. A empresa admitiu que **”algumas conversas com o ChatGPT podem começar benignas, mas podem evoluir para territórios mais sensíveis”**.
Apesar do reconhecimento, a OpenAI não abordou diretamente as descobertas específicas do relatório do CCDH, nem detalhou como o ChatGPT afeta adolescentes. A empresa reiterou seu foco em **”resolver esses tipos de cenários”** através de ferramentas para **”detectar melhor os sinais de sofrimento mental ou emocional”** e aprimoramentos no comportamento geral do chatbot.