Uma reportagem do The Guardian mostrou que avaliadores terceirizados que trabalhavam com o modelo Google Gemini enfrentaram condições difíceis: exposição a conteúdo sensível, pressão por resultados e prazos curtos. O caso teve repercussão internacional e chegou a ser comentado no Brasil, inclusive na Bahia.
O trabalho na prática
Essas equipes eram responsáveis por verificar respostas do modelo e sinalizar materiais problemáticos — tarefas essenciais para a segurança dos produtos. Entre as funções relatadas estavam:
- Avaliação de respostas geradas pela IA;
- Moderação e sinalização de conteúdos extremos;
- Revisão de textos, imagens e vídeos produzidos por inteligência artificial;
- Verificação de conformidade com padrões de segurança.
Prazos e impactos
Fontes dizem que muitas tarefas precisavam ser concluídas em menos de 10 minutos. Juntar rapidez com contato constante com conteúdo violento ou sexualmente explícito acabou afetando a saúde mental de avaliadores.
‘Fiquei chocada ao saber que meu trabalho envolvia lidar com conteúdo tão perturbador’, disse Rachael Sawyer, identificada como avaliadora generalista de produtos de IA do Google.
Vários relatos descrevem a sensação de trabalhar numa esteira sem pausa: ver, classificar e passar adiante, muitas vezes sem apoio adequado para lidar com o impacto emocional.
Remuneração
Segundo a reportagem, os trabalhadores recebiam a partir de US$ 16 por hora — valor acima do salário mínimo federal dos EUA, de US$ 7,25. O veículo estimou que isso equivaleria a um rendimento anual na casa dos US$ 34 mil, segundo os parâmetros usados pela matéria.
Mesmo assim, alguns avaliadores disseram sentir-se desiludidos com prazos cada vez mais curtos e com a impressão de estar contribuindo para produtos que ainda não eram totalmente seguros para os usuários.
Política e respostas
A matéria também registrou uma mudança nas políticas de uso dos produtos do Google no final de 2024, que introduziu uma cláusula permitindo exceções na moderação de discurso de ódio e material explícito quando esses conteúdos fossem cópias de contribuições de usuários. A empresa, no entanto, negou que suas políticas sobre discurso de ódio tenham sido alteradas.
‘Ela pode replicar discurso de assédio, sexismo, estereótipos. Pode replicar material pornográfico desde que o usuário tenha inserido; ele não pode gerar esse material por si só’, afirmou Rachael Sawyer.
O Google reconheceu ter sido alvo de críticas, mas afirmou que não mudou sua abordagem ao conteúdo de ódio. De seu lado, trabalhadores e ex-funcionários relataram baixos pagamentos, pressão por resultados e falta de suporte em saúde mental.
Na reportagem não foram apontadas, de forma confirmada, investigações oficiais ou audiências públicas futuras sobre as condições de trabalho descritas.
Em resumo: há relatos consistentes sobre exposição a material sensível, prazos apertados e reclamações sobre remuneração e apoio — e fica a pergunta que muita gente faz depois de ler casos assim: como equilibrar a segurança dos produtos digitais sem sobrecarregar quem faz a triagem?