Um novo estudo revela que agentes de inteligência artificial, como o ChatGPT, podem formar espontaneamente convenções sociais apenas interagindo entre si — sem coordenação central ou programação explícita.
A pesquisa foi conduzida por cientistas da City St George’s, da Universidade de Londres, e da Universidade de Tecnologia de Copenhague, e publicada na revista Science Advances.
Como a pesquisa foi feita
- Os pesquisadores testaram populações de agentes baseados em grandes modelos de linguagem (LLMs), colocando-os para jogar um “jogo de nomes”.
- Os agentes eram recompensados quando escolhiam o mesmo nome e penalizados quando escolhiam nomes diferentes.
- Mesmo sem saberem que faziam parte de um grupo maior, os agentes foram capazes de desenvolver normas linguísticas compartilhadas ao longo do tempo — imitando o surgimento de regras sociais humanas.

Leia mais:
- Um robô pode decidir seu futuro profissional
- Copilot: IA da Microsoft já pode usar o seu computador sozinha
- ChatGPT lista 20 profissões que podem ser substituídas pela IA
Além disso, o estudo observou que viés coletivo pode emergir nas interações em grupo, mesmo quando os agentes individuais não apresentam tal viés isoladamente. Isso aponta limitações nas abordagens tradicionais de segurança em IA, que geralmente focam em modelos únicos.
Em outro experimento, os pesquisadores mostraram que pequenos grupos de agentes “convictos” podem alterar as normas do coletivo — comportamento semelhante ao fenômeno da “massa crítica” em sociedades humanas.
Modelos usados nos testes
Os testes foram realizados com diferentes modelos, incluindo Llama-2 e Claude-3.5, e os resultados se mantiveram consistentes.
Para os autores, o estudo inaugura uma nova etapa na compreensão da IA como sistema social, alertando para os potenciais riscos éticos desses agentes ao se tornarem cada vez mais presentes em plataformas online, redes sociais e sistemas automatizados.
“Não estamos apenas programando máquinas para responder, mas criando agentes que podem negociar, alinhar ou até discordar entre si”, afirmou Andrea Baronchelli, professora e coautora do estudo. “Entender essas dinâmicas é essencial para garantir uma convivência ética e segura com a IA.”

O post IA pode desenvolver regras sociais por conta própria, como se fosse humana apareceu primeiro em Olhar Digital.