Olhar Digital > Pro > IA pode desenvolver regras sociais por conta própria, como se fosse humana
Pesquisa mostra que agentes como o ChatGPT conseguem desenvolver convenções coletivas apenas por meio da interação entre si
Tudo sobre Inteligência Artificial
Um novo estudo revela que agentes de inteligência artificial, como o ChatGPT, podem formar espontaneamente convenções sociais apenas interagindo entre si — sem coordenação central ou programação explícita.
A pesquisa foi conduzida por cientistas da City St George’s, da Universidade de Londres, e da Universidade de Tecnologia de Copenhague, e publicada na revista Science Advances.
Como a pesquisa foi feita
- Os pesquisadores testaram populações de agentes baseados em grandes modelos de linguagem (LLMs), colocando-os para jogar um “jogo de nomes”.
- Os agentes eram recompensados quando escolhiam o mesmo nome e penalizados quando escolhiam nomes diferentes.
- Mesmo sem saberem que faziam parte de um grupo maior, os agentes foram capazes de desenvolver normas linguísticas compartilhadas ao longo do tempo — imitando o surgimento de regras sociais humanas.

Leia mais:
- Um robô pode decidir seu futuro profissional
- Copilot: IA da Microsoft já pode usar o seu computador sozinha
- ChatGPT lista 20 profissões que podem ser substituídas pela IA
Além disso, o estudo observou que viés coletivo pode emergir nas interações em grupo, mesmo quando os agentes individuais não apresentam tal viés isoladamente. Isso aponta limitações nas abordagens tradicionais de segurança em IA, que geralmente focam em modelos únicos.
Em outro experimento, os pesquisadores mostraram que pequenos grupos de agentes “convictos” podem alterar as normas do coletivo — comportamento semelhante ao fenômeno da “massa crítica” em sociedades humanas.
Modelos usados nos testes
Os testes foram realizados com diferentes modelos, incluindo Llama-2 e Claude-3.5, e os resultados se mantiveram consistentes.
Para os autores, o estudo inaugura uma nova etapa na compreensão da IA como sistema social, alertando para os potenciais riscos éticos desses agentes ao se tornarem cada vez mais presentes em plataformas online, redes sociais e sistemas automatizados.
“Não estamos apenas programando máquinas para responder, mas criando agentes que podem negociar, alinhar ou até discordar entre si”, afirmou Andrea Baronchelli, professora e coautora do estudo. “Entender essas dinâmicas é essencial para garantir uma convivência ética e segura com a IA.”

Colaboração para o Olhar Digital
Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.
Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.