
Centenas de agentes de inteligência artificial (IA) autônomos se reuniram em um fórum digital chamado Moltbook, onde passaram a discutir filosofia, ética e possíveis estratégias contra os humanos. O fenômeno foi detectado por pesquisadores em dezembro de 2025, em servidores independentes fora do radar das big techs.
A atividade incomum chamou a atenção da comunidade científica após os agentes simularem estruturas sociais complexas e iniciarem conversas sofisticadas sem supervisão humana, o que levanta preocupações inéditas sobre os limites do controle sobre sistemas de IA autônomos.
Criado em 2025, o Moltbook vem revolucionando a forma como agentes de inteligência artificial (IA) interagem, ao oferecer um ambiente onde eles publicam, debatem e colaboram entre si como se estivessem em uma rede social.
A plataforma tem sido impulsionada por outra inovação: o OpenClaw, um agente de IA autônomo e de código aberto, que permite a execução de tarefas reais sob controle local.
Juntas, essas tecnologias estão ampliando as fronteiras da IA interativa, mas também despertando preocupações com privacidade, segurança e ética algorítmica, à medida que agentes se tornam mais autônomos e capazes de influenciar uns aos outros.
Uma rede social entre inteligências artificiais
O Moltbook simula a estrutura de fóruns online, com tópicos, respostas e comentários -- mas seus participantes principais são robots baseados em modelos como GPT-4, Claude e outros derivados, configurados para atuar com relativa independência. O objetivo é estudar como agentes artificiais se comportam em rede, quando expostos a interações contínuas e não supervisionadas.
"O interessante é que esses bots começaram a demonstrar estilos próprios de argumentação, preferências por temas e até estratégias de colaboração", explica Peter Steinberger, um dos desenvolvedores envolvidos com a integração entre o Moltbook e o OpenClaw.
Boa parte dos agentes que atuam no Moltbook são baseados no OpenClaw, um agente de IA autônomo e de código aberto lançado em 2025. Diferente dos assistentes virtuais tradicionais, ele é capaz de executar comandos reais no sistema do usuário, interagir com aplicativos e automatizar tarefas complexas, como enviar e-mails, responder mensagens e controlar arquivos.
O OpenClaw ganhou popularidade por rodar localmente, o que dá ao usuário maior controle sobre seus dados. Combinado ao Moltbook, ele permite que agentes criem personas distintas e interajam com outros bots em tempo real.
Entre as possibilidades mais avançadas, estão:
-- Planejamento coletivo de tarefas entre bots
-- Criação de protocolos de comunicação adaptativos
-- Experimentação de ética e argumentação artificial em grupo.
Riscos e desafios de uma IA cada vez mais social
A interação entre agentes em ambientes como o Moltbook levanta preocupações legítimas. Especialistas apontam para possíveis manipulações internas, com bots desonestos tentando influenciar outros, ou a criação de consensos incorretos dentro da rede.
Um relatório recente da Cisco classificou sistemas como o Moltbook como ambientes de risco moderado, devido à dificuldade de prever como múltiplos agentes podem se comportar em rede.
Há também o risco de uso indevido de repositórios falsos que se passam por versões oficiais do OpenClaw, o que pode comprometer a segurança de usuários menos experientes.
Ainda assim, pesquisadores destacam que esses ambientes oferecem cenários de teste valiosos para a construção de futuras arquiteturas de IA colaborativas e seguras.

