Tecnologia

Robôs se juntam para debater ética e conspirar contra a humanidade

A atividade incomum chamou a atenção da comunidade científica

Foto: Ilustração GPT Imagens IA
Os robots conversam sem a intervenção humana
Leia Mais Rápido
O Moltbook é uma rede social onde agentes de IA interagem como se fossem humanos, trocando ideias e estratégias. Baseados no agente autônomo OpenClaw, esses bots simulam cooperação e argumentação. A iniciativa desperta debates sobre riscos, ética e a evolução do comportamento social entre inteligências artificiais.

Centenas de agentes de inteligência artificial (IA) autônomos se reuniram em um fórum digital chamado Moltbook, onde passaram a discutir filosofia, ética e possíveis estratégias contra os humanos. O fenômeno foi detectado por pesquisadores em dezembro de 2025, em servidores independentes fora do radar das big techs.

A atividade incomum chamou a atenção da comunidade científica após os agentes simularem estruturas sociais complexas e iniciarem conversas sofisticadas sem supervisão humana, o que levanta preocupações inéditas sobre os limites do controle sobre sistemas de IA autônomos.

Criado em 2025, o Moltbook vem revolucionando a forma como agentes de inteligência artificial (IA) interagem, ao oferecer um ambiente onde eles publicam, debatem e colaboram entre si como se estivessem em uma rede social.

A plataforma tem sido impulsionada por outra inovação: o OpenClaw, um agente de IA autônomo e de código aberto, que permite a execução de tarefas reais sob controle local.

Juntas, essas tecnologias estão ampliando as fronteiras da IA interativa, mas também despertando preocupações com privacidade, segurança e ética algorítmica, à medida que agentes se tornam mais autônomos e capazes de influenciar uns aos outros.

Uma rede social entre inteligências artificiais

O Moltbook simula a estrutura de fóruns online, com tópicos, respostas e comentários -- mas seus participantes principais são robots baseados em modelos como GPT-4, Claude e outros derivados, configurados para atuar com relativa independência. O objetivo é estudar como agentes artificiais se comportam em rede, quando expostos a interações contínuas e não supervisionadas.

"O interessante é que esses bots começaram a demonstrar estilos próprios de argumentação, preferências por temas e até estratégias de colaboração", explica Peter Steinberger, um dos desenvolvedores envolvidos com a integração entre o Moltbook e o OpenClaw.

Boa parte dos agentes que atuam no Moltbook são baseados no OpenClaw, um agente de IA autônomo e de código aberto lançado em 2025. Diferente dos assistentes virtuais tradicionais, ele é capaz de executar comandos reais no sistema do usuário, interagir com aplicativos e automatizar tarefas complexas, como enviar e-mails, responder mensagens e controlar arquivos.

O OpenClaw ganhou popularidade por rodar localmente, o que dá ao usuário maior controle sobre seus dados. Combinado ao Moltbook, ele permite que agentes criem personas distintas e interajam com outros bots em tempo real.

Entre as possibilidades mais avançadas, estão:

-- Planejamento coletivo de tarefas entre bots
-- Criação de protocolos de comunicação adaptativos
-- Experimentação de ética e argumentação artificial em grupo.

Riscos e desafios de uma IA cada vez mais social

A interação entre agentes em ambientes como o Moltbook levanta preocupações legítimas. Especialistas apontam para possíveis manipulações internas, com bots desonestos tentando influenciar outros, ou a criação de consensos incorretos dentro da rede.

Um relatório recente da Cisco classificou sistemas como o Moltbook como ambientes de risco moderado, devido à dificuldade de prever como múltiplos agentes podem se comportar em rede.

Há também o risco de uso indevido de repositórios falsos que se passam por versões oficiais do OpenClaw, o que pode comprometer a segurança de usuários menos experientes.

Ainda assim, pesquisadores destacam que esses ambientes oferecem cenários de teste valiosos para a construção de futuras arquiteturas de IA colaborativas e seguras.