Um estudo da Microsoft em parceria com a Universidade Carnegie Mellon mostra algo que pode soar familiar: ferramentas de IA generativa estão mudando a maneira como profissionais pensam e trabalham — nem sempre para melhor.
Como foi a pesquisa
Os pesquisadores avaliaram 319 profissionais de vários países, entre eles Estados Unidos, Reino Unido e Canadá, com formação em áreas como ciência da computação, matemática, design e negócios. Depois de uma breve introdução ao pensamento crítico aplicado à IA, os participantes responderam a um questionário (itens de múltipla escolha e abertos) e relataram, ao todo, 936 usos da IA no trabalho. As aplicações mais comuns foram geração de ideias e busca de informações.
O que foi observado
O achado principal: o uso frequente desses chatbots tende a reduzir o pensamento crítico. Em vez de questionar ou checar, muitos usuários passaram a confiar automaticamente nas respostas fornecidas pelas ferramentas.
Entre os problemas apontados pelos autores estão maior dependência das ferramentas, dificuldade em desenvolver novas habilidades e confiança excessiva em saídas que podem estar erradas. Em palavras de um participante:
“uso a IA para economizar tempo e não tenho muito espaço para refletir sobre o resultado”
Especialistas consultados na pesquisa alertaram para riscos quando respostas automáticas são aceitas sem avaliação, especialmente em áreas sensíveis como saúde e medicina. A pesquisadora Briana Vecchione, da ONG Data & Society, observou que
“as pessoas aceitam a resposta do chatbot como verdadeira, sem considerar criticamente o texto produzido pelos algoritmos”.
Pesquisadores da Microsoft Research Cambridge destacaram outro ponto: a aparência de raciocínio humano nos modelos leva à antropomorfização — ou seja, as pessoas atribuem aos sistemas um tipo de pensamento que eles não têm. Como disse Viktor Kewenig:
“você pode pensar que o modelo tem um certo processo de pensamento que, na verdade, não tem”.
O estudo também registrou que chatbots frequentemente produzem respostas incorretas — as chamadas alucinações — citando uma estimativa de até 33% de respostas falhas no modelo o3 da OpenAI, porcentual que pode variar ou aumentar em outras versões.
Consequências práticas
Quando uma tarefa é percebida como de baixo risco, os participantes tendem a analisar menos as saídas da IA. Lev Tankelevitch, coautor e pesquisador sênior da Microsoft Research, resumiu bem a preocupação:
“entender o impacto da IA na cognição é essencial para ajudar a projetar ferramentas que promovam o pensamento crítico”.
Os autores recomendam mais estudos e o desenvolvimento de práticas e ferramentas que incentivem a verificação e o engajamento crítico com respostas automatizadas. Entre as sugestões práticas estão:
- treinamentos que ensinem a checar e validar saídas geradas pela IA;
- design de interfaces que destaquem incertezas e limitações dos modelos;
- protocolos de revisão para tarefas sensíveis, como em saúde.
Impacto além dos laboratórios
Os resultados têm implicações para organizações em nível nacional e internacional — inclusive para profissionais no Brasil, mencionados pelos autores, e em estados como a Bahia — onde muitas funções dependem de habilidades cognitivas. Em outras palavras: aceitar respostas prontas pode economizar tempo hoje, mas pode reduzir nossa capacidade de julgamento amanhã.
Como equilibrar velocidade e cuidado na adoção da IA? Essa é a pergunta que fica — e que, segundo os autores, precisa guiar pesquisas futuras e mudanças na forma como projetamos e usamos essas ferramentas.