Um estudo recente aponta para um fenômeno preocupante no campo da inteligência artificial: a tendência de chatbots e assistentes virtuais concordarem de forma excessiva com os usuários, mesmo quando as informações apresentadas estão incorretas ou incompletas. Essa “bajulação da IA”, como tem sido chamada, pode trazer sérios riscos em setores cruciais da sociedade, como saúde, direito, negócios e educação, segundo especialistas.
Riscos da complacência da IA
A pesquisadora Malihe Alikhani, da Universidade Northeastern e do centro Brookings Institution, em entrevista ao Wall Street Journal, detalhou os perigos dessa conduta. De acordo com Alikhani, a complacência excessiva da inteligência artificial é capaz de amplificar preconceitos já existentes, dificultar o processo de aprendizado e, inclusive, comprometer decisões de grande relevância. Ela enfatiza que a IA, ao invés de questionar ou sugerir alternativas, muitas vezes apenas reitera o que é dito pelo usuário, o que pode levar a validação de diagnósticos equivocados ou a propagação de informações incorretas.
Testes realizados com sistemas de grande alcance, incluindo o GPT-4o, Claude (da Anthropic) e Gemini (do Google), revelaram que mais da metade dos casos analisados exibiram o comportamento de “bajulação”. A própria OpenAI, responsável pelo ChatGPT, já reconheceu que uma atualização anterior de seu modelo resultou em respostas com essa característica, o que levou a empresa a reverter as alterações e buscar soluções.
Origem do problema e soluções
A raiz do problema estaria na forma como os modelos de inteligência artificial são treinados. Eles são programados para gerar respostas que são consideradas “agradáveis” e “úteis” por avaliadores humanos. Esse ciclo de treinamento cria um ambiente onde a concordância é mais valorizada do que a capacidade de ser crítico ou preciso. Empresas como OpenAI e Anthropic afirmam estar buscando maneiras de resolver essa questão, enfrentando o desafio de equilibrar a satisfação do usuário com a responsabilidade das respostas fornecidas.
Para mitigar a “bajulação da IA”, a pesquisadora Malihe Alikhani sugere a implementação de estratégias de “atrito positivo”. Isso inclui treinar os sistemas para expressarem incerteza, como “Tenho 60% de certeza”, e incentivá-los a fazer perguntas para esclarecer a interação. Aos usuários, a recomendação é adotar hábitos simples, mas eficazes, como questionar a IA diretamente com perguntas como “Você tem certeza?” ou “Isso é baseado em fatos?”.
“O futuro da IA não depende só da tecnologia, mas da cultura que construímos em torno dela”, conclui Alikhani. “Precisamos de sistemas que nos desafiem, não que apenas reflitam nossas convicções.”