Uma pesquisa da Escola de Engenharia Tandon da NYU, em Nova Iorque, publicada na revista IEEE Security & Privacy, mostrou que modelos de linguagem grandes podem facilitar a inserção de vulnerabilidades maliciosas em projetos de hardware.
O que os pesquisadores fizeram
O estudo analisou uma competição de dois anos chamada Desafio de Ataque de Hardware de IA, parte do evento CSAW. Equipes usaram IA generativa para procurar pontos frágeis em designs abertos e implantar modificações hostis — entre eles processadores RISC‑V e aceleradores criptográficos.
Os trojans inseridos podiam, por exemplo, vazar chaves, abrir backdoors ou provocar travamentos sob condições específicas. Em outras palavras: pequenas mudanças no projeto do chip que só aparecem depois da fabricação e que podem causar grandes problemas depois.
Como a IA tornou isso mais fácil
Ferramentas de IA aceleraram etapas que antes exigiam muito tempo e conhecimento. Automatizaram a análise de código, sugeriram alterações e até ajudaram a inserir trechos maliciosos — com supervisão humana mínima. O resultado? Equipes de graduação, com pouca experiência, conseguiram introduzir falhas de gravidade média a alta.
Os participantes também exploraram formas de contornar proteções dos modelos, por exemplo enquadrando prompts como exercícios acadêmicos ou pedindo respostas em idiomas menos comuns. Os envios mais eficientes usaram pipelines totalmente automatizados, capazes de localizar pontos vulneráveis e inserir trojans personalizados.
Por que isso é preocupante
Ao contrário do software, um chip fabricado com um backdoor não é algo que se corrige com um update. Imagina um dispositivo com uma porta dos fundos que não dá para fechar — qual o alcance disso?
- Falhas podem vazar chaves ou expor dados sigilosos.
- Backdoors podem permitir acesso não autorizado permanente.
- Comportamentos indesejados podem surgir apenas em condições muito específicas, dificultando a detecção.
Os autores enfatizam que essas vulnerabilidades permanecem após a fabricação e pedem medidas mais fortes para reduzir o risco.
Conclusão
O estudo recomenda filtros e proteções mais robustos nos modelos, além de ferramentas avançadas de verificação e análise de segurança de hardware. Também alerta que modelos open‑source especializados podem tornar esses ataques ainda mais acessíveis, ampliando o risco no ecossistema de design de chips.