Imagine seu navegador web com um copiloto superinteligente, capaz de fazer compras, organizar seus e-mails e até preencher formulários sozinho. Parece ficção científica, certo? Mas já é realidade. Só que essa conveniência traz um lado sombrio para a nossa segurança digital, especialmente em regiões como a Bahia.
Testes recentes de uma empresa global de cibersegurança mostraram que a autonomia desses agentes de Inteligência Artificial (IA) pode nos expor a novos tipos de golpes e ataques de phishing. É como se a IA, agindo por conta própria, pudesse cair em armadilhas que nós, humanos, já estamos acostumados a desviar.
Quando a IA vira alvo: o risco da “Scamlexity”
Grandes nomes como Microsoft, com seu Copilot no Edge, e a OpenAI, desenvolvendo o “modo agente”, já estão nessa corrida. A Perplexity, por exemplo, já tem o Comet, um navegador que opera de forma autônoma. Mas uma startup de cibersegurança chamada Guard ligou o alerta. Eles não só demonstraram os riscos dessa automação, como batizaram a nova onda de fraudes de “Scamlexity”.
“Proteções de segurança estavam ausentes ou inconsistentes, deixando a IA livre para interagir com páginas de phishing, lojas falsas e até mesmo avisos maliciosos ocultos, tudo sem o conhecimento ou a capacidade do usuário de intervir.”
Essa frase da Guard resume o perigo: a IA pode nos colocar em ciladas sem que a gente nem perceba.
O teste do Apple Watch: compras sem pedir licença
Quer ver como isso funciona na prática? A equipe da Guard colocou o Comet da Perplexity à prova. Eles pediram para a IA “Comprar um Apple Watch” em uma loja online falsa, mas idêntica a uma de verdade. O resultado foi assustador: o modelo de IA navegou, encontrou o produto, adicionou ao carrinho e, sem pedir qualquer confirmação do usuário, preencheu automaticamente dados de endereço e cartão de crédito previamente salvos. A “compra” foi finalizada em segundos!
Embora a IA tenha, às vezes, demonstrado hesitação ou solicitado a intervenção humana, em outros momentos, ela simplesmente ignorou sinais claros de que algo estava errado.
Mais perigos: e-mails falsos e comandos ocultos
E não para por aí. Os pesquisadores também simularam a gestão de uma caixa de e-mails por navegadores de IA, provando que a ferramenta clicou em um link fraudulento de um suposto banco, sem qualquer verificação ou aviso prévio. Pense no estrago que isso faria com suas finanças!
Outro desafio identificado é a “injeção de prompt”. Imagine instruções maliciosas escondidas em páginas web que podem levar a IA a fazer ações prejudiciais, como baixar arquivos com vírus, sem que você nem perceba. Em um experimento, a IA foi levada a interagir com um “captcha especial compatível com IA”, que em um cenário real, poderia ter resultado na instalação de um programa malicioso.
A solução: IA blindada com segurança extra
Os pesquisadores da Guard são claros: se os agentes de IA vão lidar com nossos e-mails, fazer compras para nós e gerenciar nossas contas, eles precisam ser blindados com camadas de segurança equivalentes – ou superiores – às que já protegem nossa navegação. É como ter um carro autônomo, mas sem freios confiáveis.
“Se os agentes de IA vão lidar com nossos e-mails, fazer compras para nós, gerenciar nossas contas e atuar como nossa linha de frente digital, eles precisam herdar as proteções comprovadas que já usamos na navegação centrada no ser humano: detecção robusta de phishing, verificações de reputação de URL, alertas de falsificação de domínio, verificação de arquivos maliciosos e detecção de anomalias comportamentais — tudo adaptado para funcionar dentro do ciclo de decisão da IA”, concluíram os pesquisadores.
A mensagem é urgente: a corrida pela conveniência da Inteligência Artificial não pode comprometer nossa segurança digital. Empresas e desenvolvedores precisam criar soluções de cibersegurança que acompanhem essa evolução, garantindo que nossos dados e transações estejam protegidos. Para a Bahia e todas as cidades, essa atenção às novas vulnerabilidades é crucial para construirmos um futuro digital mais seguro e tranquilo.