Já pensou como os modelos de inteligência artificial, como o famoso ChatGPT, podem inventar histórias e fatos que não existem? Essa capacidade, às vezes chamada de “alucinação”, é um desafio conhecido. Mas o que aconteceria se pudéssemos usar a própria IA para encontrar esses erros, especialmente em notícias sobre ciência?
Essa foi a ideia de pesquisadores do Stevens Institute of Technology, que criaram um sistema baseado em inteligência artificial. O objetivo é claro: analisar reportagens científicas e identificar imprecisões. O projeto foi apresentado recentemente, mostrando uma nova forma de olhar para a checagem de fatos.
Como a IA faz a checagem?
Para ensinar o sistema, a equipe montou um grande conjunto de dados. Foram usadas 2.400 reportagens, tanto reais quanto criadas por outras IAs, junto com os resumos técnicos originais das pesquisas. A IA então compara o que diz a notícia com os dados científicos, procurando por pontos como exageros ou simplificações.
Qual a precisão do sistema?
Nos testes, o sistema se mostrou bastante eficaz. Ele conseguiu identificar notícias confiáveis com cerca de 75% de acerto. Curiosamente, a IA foi melhor ao analisar textos escritos por humanos do que por outras IAs.
Segundo a professora K.P. Subbalakshmi, que liderou o estudo, isso revela um ponto importante. É mais difícil achar erros técnicos em textos que, mesmo sendo artificiais, são muito bem estruturados. A batalha contra a desinformação ganha uma nova camada de complexidade.
E quais são as aplicações futuras?
A pesquisa abre caminho para várias ferramentas práticas. Podemos pensar em plugins que alertem leitores sobre possíveis distorções em tempo real. Ou até mesmo sistemas que avaliem a precisão científica de diferentes veículos de mídia.
Para a professora K.P. Subbalakshmi, a mensagem é clara: não dá para simplesmente ignorar a inteligência artificial. O caminho é usá-la a nosso favor, criando sistemas mais confiáveis. Assim, fica mais fácil para todo mundo separar a ciência de qualidade da pura desinformação.