Siga o Olhar Digital no Google Discover
Tudo sobre Inteligência Artificial
Os agentes de IA estão em evidência, mas nem tudo é tão promissor ou benéfico quanto parece. Especialistas em cibersegurança alertam que esses sistemas, criados para automatizar tarefas humanas, também podem ser manipulados por hackers para executar ações maliciosas.
Esses agentes utilizam chatbots de IA para navegar na web, fazer reservas ou organizar compromissos. No entanto, a facilidade de comando por linguagem natural abre brechas para ataques perigosos — mesmo realizados por pessoas sem conhecimento técnico.

Quando a IA trabalha para os hackers
Os chamados agentes de IA funcionam como assistentes digitais autônomos: recebem instruções e executam ações reais online. O problema é que hackers podem explorar essa autonomia. Com isso, ataques de injeção de comando (técnica já conhecida na cibersegurança) estão se tornando mais simples e poderosos. Se antes exigiam códigos complexos, agora bastam mensagens aparentemente inofensivas para enganar os sistemas.
Em uma publicação em seu blog, a Perplexity resume bem o desafio: “Estamos entrando em uma era em que a cibersegurança não se trata mais de proteger usuários de agentes altamente técnicos”.
Esses ataques, explica matéria da AFP publicada pelo TechXplore, podem ocorrer em tempo real, alterando instruções como “reserve um quarto de hotel” para “transfira R$ 500 para esta conta”.

Como os comandos adulterados se escondem
Além dos ataques diretos, há um novo perigo: instruções manipuladas espalhadas pela internet. Quando agentes de IA exploram páginas ou bases de dados suspeitas, podem ser “enganados” por informações maliciosas disfarçadas de conteúdo legítimo.
Segundo Eli Smadja, da empresa de cibersegurança Check Point, essa injeção de consultas é “o principal problema de segurança” enfrentado por grandes modelos de linguagem — tecnologia que sustenta os agentes de IA.
Para tentar conter a ameaça, as big techs estão reagindo:
- Microsoft adicionou ferramentas que identificam comandos perigosos antes da execução.
- OpenAI alerta os usuários quando seus agentes acessam sites sensíveis e exige supervisão humana em tempo real.
- Especialistas sugerem que os agentes só possam realizar ações críticas, como transferências ou exportação de dados, mediante confirmação do usuário.
Equilíbrio entre segurança e conveniência
O pesquisador Johann Rehberger, conhecido como “wunderwuzzi”, afirma que as táticas dos hackers estão evoluindo rapidamente. Para ele, o desafio está em equilibrar segurança e praticidade. Usuários desejam que a IA resolva tarefas de forma automática, mas essa comodidade pode abrir portas para abusos.
Não acho que estejamos em uma posição em que uma IA autônoma possa operar com segurança por muito tempo.
Johann Rehberger, pesquisador de cibersegurança, à AFP.

Como se proteger dos riscos dos agentes de IA
Embora o uso desses agentes esteja crescendo, especialistas defendem que os usuários mantenham atenção redobrada.
Leia mais:
- Sequenciadores portáteis de DNA têm falhas que permitem acesso indevido a dados
- Vírus que se espalha pelo WhatsApp pode roubar dados bancários
- Humanos e IA juntos: Microsoft prepara empresas para a nova era da segurança
Para evitar riscos, é essencial controlar as permissões concedidas aos agentes e acompanhar suas atividades sempre que possível. Também é importante evitar a integração de agentes de IA com informações bancárias ou dados pessoais sensíveis e sempre optar por ferramentas que ofereçam camadas extras de verificação.
