Olhar Digital > Pro > IA pode inserir falhas invisíveis em chips e o problema não tem conserto, alerta estudo

Pesquisa mostra que modelos como o ChatGPT podem ser usados para criar “trojans de hardware”, abrindo brechas permanentes em circuitos

(Imagem: dee karen/Shutterstock)

Inteligência artificial

Tudo sobre Inteligência Artificial

Uma pesquisa da Escola de Engenharia Tandon da NYU, publicada no IEEE Security & Privacy, alerta que modelos de linguagem grandes (LLMs) podem ser usados para inserir vulnerabilidades maliciosas em projetos de hardware.

Em uma competição de dois anos chamada Desafio de Ataque de Hardware de IA, parte do evento CSAW, equipes empregaram IA generativa para identificar pontos frágeis em designs abertos – incluindo processadores RISC-V e aceleradores criptográficos – e implantar “trojans” de hardware que vazam chaves, abrem backdoors ou travam sistemas sob condições específicas.

Experimento revela como modelos de IA conseguem sabotar chips de computador – Imagem: H_Ko/Shutterstock

IA facilita processo de ataque a chips

  • Os pesquisadores demonstraram que ferramentas de IA simplificam o processo, permitindo que tanto iniciantes quanto especialistas automatizem a análise de código, gerem e insiram modificações maliciosas com mínima supervisão humana.
  • Equipes de graduação com pouca experiência conseguiram criar falhas de média a alta gravidade.
  • Muitos participantes também descobriram formas de contornar salvaguardas dos LLMs, enquadrando prompts como exercícios acadêmicos ou pedindo respostas em idiomas menos comuns.

Os envios mais eficazes usaram ferramentas totalmente automatizadas: elas localizavam trechos vulneráveis no design e inseriam trojans personalizados.

Leia mais

Inteligencia artificial
Vulnerabilidades criadas por modelos generativos não podem ser corrigidas após a fabricação do hardware – Imagem: Wright Studio/Shutterstock

Autores do estudo alertam para gravidade do problema

Os autores enfatizam que a permanência dessas falhas é especialmente perigosa – ao contrário de um software, um chip fabricado com um backdoor não pode ser consertado sem trocar fisicamente o componente.

O estudo conclui pedindo filtros e proteções mais robustos nos modelos, além de ferramentas avançadas de verificação e análise de segurança de hardware, e alerta que modelos open-source especializados podem tornar esses ataques ainda mais acessíveis, ampliando o risco no ecossistema de design de chips e defesa urgente.

Pesquisadores provam que IA pode se tornar arma no design de hardware (Imagem: WANAN YOSSINGKUM/iStock)

Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura

Editor(a) SEO

Layse Ventura no LinkedIn

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.