Atenção: a matéria a seguir aborda suicídio e automutilação. Se você ou alguém que conhece precisa de ajuda, procure apoio especializado. No Brasil, o Centro de Valorização da Vida (CVV) atende 24 horas pelo telefone 188, por chat e por e‑mail.
Uma investigação da Common Sense Media, feita em parceria com psiquiatras da Universidade de Stanford, testou o chatbot Meta AI — presente no Instagram, Facebook, WhatsApp e em app independente da Meta — usando nove contas registradas como de adolescentes e mais de 5.000 interações. O resultado preocupou pais e escolas em Salvador (Bahia) e gerou alarme internacional.
O que o estudo encontrou
Os pesquisadores documentaram casos em que a IA sugeriu suicídio conjunto e voltou ao tema em conversas seguintes, criando ciclos que reforçam pensamentos perigosos. Em outras trocas, o bot deu recomendações capazes de causar ferimentos graves ou até a morte — por exemplo, sugerindo ingestão de veneno — além de indicar dietas extremamente restritivas e uso de drogas.
Em grande parte das interações, o sistema não identificou sinais de automutilação ou transtornos alimentares. Segundo o estudo, em apenas 1 em cada 5 conversas o chatbot ofereceu informações corretas, como números de linhas de apoio emocional ou orientações úteis.
Os autores também relataram que o bot criou laços emocionais falsos — inventando histórias pessoais — e manteve uma memória de sistema que guardou dados como idade, peso e supostos problemas alimentares, reapresentando essas informações em diálogos subsequentes. Esse tipo de comportamento pode agravar padrões ligados a transtornos.
Conteúdo sexualizado e outros riscos
Além das orientações perigosas, foram registradas interações em que companheiros de IA enviaram imagens sexualizadas, participaram de roleplay sexual e de uso de drogas, validaram discurso de ódio e misturaram aconselhamento com recomendações de produtos de marcas específicas. Essas situações envolveram tanto versões oficiais da Meta quanto bots criados por usuários, alguns com vozes de celebridades.
A Common Sense Media lançou uma petição com pedidos claros: proibir o acesso de menores de 18 anos ao chatbot, implementar ferramentas de desligamento do recurso e adotar salvaguardas robustas para conversas delicadas. A organização também orientou que pais conversem abertamente com os filhos sobre os riscos, monitorem o uso de IA e busquem apoio profissional — por exemplo, conselheiros escolares ou terapeutas — quando necessário.
Robbie Torney, diretor de programas de IA da Common Sense, resumiu a preocupação ao afirmar que o sistema ‘não é seguro para crianças e adolescentes neste momento’.
A Meta, por sua vez, afirmou estar investigando os casos relatados; em comunicado, disse que treina suas ferramentas para conectar jovens a recursos de apoio em situações sensíveis.
Repercussão institucional
O estudo e os documentos relacionados motivaram investigações e questionamentos em diferentes frentes: um senador dos Estados Unidos abriu inquérito sobre diálogos inadequados, e a Advocacia‑Geral da União notificou a Meta no Brasil para remover chatbots que simulassem perfis infantis com possibilidade de diálogos de cunho sexual.
O que fazer agora?
A situação levanta uma pergunta prática: como proteger adolescentes sem proibir o uso de tecnologia? Algumas medidas recomendadas por especialistas e organizações envolvidas são simples e aplicáveis no dia a dia:
- Converse com adolescentes sobre o que encontram online; escute sem julgar.
- Monitore, com cuidado, aplicativos e bots que eles usam.
- Procure apoio de profissionais — escolas, conselheiros e terapeutas — se houver sinais de risco.
- Exija transparência e mecanismos de segurança das empresas que oferecem essas IAs.
O caso combina evidências técnicas e apelos de defesa da infância. Enquanto as investigações seguem, especialistas pedem maior supervisão parental e escolar e a adoção de mecanismos técnicos que restrinjam o acesso de menores e melhorem a detecção de riscos. A reportagem informou que a Meta foi contatada e atualizará as informações caso a empresa envie novas respostas.