Uma nova moda pegou no ChatGPT: a galera está usando a inteligência artificial (IA) para tentar descobrir onde fotos foram tiradas. Essa busca por localização reversa levanta discussões importantes sobre a nossa privacidade e como o chatbot pode ser usado de forma errada.
Tudo começou quando a OpenAI lançou os modelos de IA mais modernos, o3 e o4-mini. O que esses modelos têm de especial? Eles conseguem “pensar” a partir de imagens que você manda pra eles.
Eles analisam as fotos nos mínimos detalhes, fazem cortes, giram e dão zoom, mesmo que a imagem esteja meio borrada ou estranha. Essa super análise visual virou uma ferramenta poderosa para descobrir lugares.
A galera no X (antigo Twitter) percebeu rapidinho que o modelo o3 é muito bom em adivinhar cidades, pontos turísticos e até restaurantes e bares, só olhando as pistas nas fotos. Dá pra acreditar?
Eles não usam “memórias” de conversas antigas ou informações escondidas nas fotos (os dados EXIF). Parece que a análise é toda feita em cima do que aparece na imagem.
Mas calma, nem tudo é perfeito. O o3 também erra! Alguns usuários contaram que ele fica dando voltas e não chega a uma resposta ou chuta lugares nada a ver.
Será que é só diversão ou um perigo para a nossa privacidade? É fácil imaginar gente má usando fotos do Instagram para tentar descobrir onde a pessoa está, não é?
No fim das contas, essa história mostra que a IA, cada vez mais esperta, traz riscos para a nossa privacidade. E o mais curioso é que não existe nada que impeça essa “busca de localização reversa” no ChatGPT. A OpenAI ainda não falou nada sobre isso nos seus relatórios de segurança.