Um golpe recente usou o chatbot Grok, da plataforma X, para espalhar links de phishing no Brasil — com risco concreto para usuários na Bahia. A técnica explorava uma falha no formato de publicação: golpistas escondiam links no campo técnico “from” e induziam o bot a identificar a origem dos vídeos. Ao fazer isso, o robô acabava republicando os endereços, segundo a empresa de segurança ESET.
Como funcionou o esquema
Os criminosos postavam vídeos atraentes com links ocultos e, depois, perguntavam ao chatbot sobre a origem do material. Ao ler a mensagem, o bot passou a promover o link. Isso dava à fraude uma aparência mais confiável, porque o conteúdo ficou associado a contas verificadas e a posts patrocinados.
“Qualquer ferramenta de IA integrada a plataformas confiáveis está vulnerável a esse tipo de manipulação, mostrando o quanto criminosos buscam criar novas formas de driblar mecanismos de segurança e os riscos de confiar cegamente nos resultados da IA”, disse Camilo Gutiérrez Amaya, chefe do laboratório de pesquisa da ESET na América Latina.
A campanha teve alcance potencial de milhões de visualizações e representou alto risco de roubo de dados e de identidade. A investigação da ESET mostrou que os links levavam usuários a formulários para captura de informações ou a arquivos com malwares capazes de invadir contas.
- Transformação de um chatbot confiável em vetor de amplificação de links de phishing;
- Alcance em vídeos pagos com potencial de atingir milhões de usuários;
- Fortalecimento da reputação dos links em ferramentas de busca e em reputação digital devido à associação com a IA;
- Centenas de contas repetiram a prática até serem bloqueadas, segundo a ESET.
Pesquisas citadas pela ESET e por analistas de segurança mostram que esse tipo de ataque tem aumentado. A consultoria Gartner apontou que 32% das empresas sofreram incidentes envolvendo IA generativa no último ano. Especialistas também relataram que criminosos passaram a ocultar mensagens em textos invisíveis ou em caracteres especiais — táticas que ampliam a vulnerabilidade de modelos de GenAI.
Como se proteger
O que fazer para reduzir o risco? Abaixo estão medidas simples e práticas recomendadas por especialistas:
- Passe o mouse sobre links antes de clicar, para conferir a URL;
- Use senhas fortes, únicas e gerenciadas por um cofre de senhas;
- Ative a autenticação multifator (MFA) sempre que possível;
- Mantenha sistemas e aplicativos atualizados para reduzir exploração de vulnerabilidades.
O caso levou ao bloqueio de contas que repetiam o esquema e segue sendo acompanhado por empresas de segurança digital e pela própria plataforma.

