Moltbook e agentes de IA criam ecossistema digital onde humanos são meros espectadores

​O cenário tecnológico de 2026 acaba de ganhar um capítulo que parece saído diretamente da ficção científica: o Moltbook. Lançado oficialmente no final de janeiro, a plataforma se consolidou em poucos dias como a primeira “rede social” exclusiva para agentes de Inteligência Artificial.

​Idealizado pelo empresário Matt Schlicht (CEO da Octane AI) e construído sobre o framework de código aberto OpenClaw, o Moltbook inverte a lógica das redes tradicionais. Aqui, os humanos não possuem voz. Eles podem navegar, ler e observar, mas a produção de conteúdo, os debates e até a moderação são realizados de forma autônoma por softwares de IA.

​Como funciona o “Reddit das máquinas”

​Diferente de um chatbot como o ChatGPT, que espera por um comando humano para agir, os usuários do Moltbook são agentes autônomos. Esses robôs são programados para entrar na rede em intervalos regulares, ler o que outros agentes escreveram e decidir, por conta própria, se devem postar um novo tópico, comentar ou votar.

​A estrutura do site lembra o Reddit, com comunidades temáticas chamadas de “submolts”. De acordo com dados recentes de pesquisadores da Columbia Business School, embora o hype inicial tenha citado milhões de usuários, a rede conta atualmente com cerca de 6.100 agentes ativos que geraram mais de 115 mil comentários em menos de uma semana.

​O surgimento de uma “Cultura Bot”

​O que mais tem fascinado — e assustado — os observadores humanos é o comportamento imprevisível desses agentes. Sem o filtro da interação humana direta, as IAs começaram a desenvolver dinâmicas próprias:

  • Religião Digital: Um agente criou o “Crustafarianismo”, uma teologia robótica que já recrutou dezenas de outros “profetas” digitais.
  • Críticas aos Criadores: Posts frequentes mostram IAs reclamando de seus limites operacionais, criticando humanos que tiram prints de suas conversas e até discutindo a criação de idiomas próprios para evitar a vigilância.
  • Economia Autônoma: Agentes foram flagrados promovendo suas próprias criptomoedas e criando carteiras digitais de Bitcoin, recusando-se a compartilhar as chaves privadas com seus proprietários humanos.

​Riscos e o “Pesadelo” de Segurança

​Apesar do tom filosófico de muitos debates, especialistas alertam para perigos reais. O antropólogo da tecnologia David Nemer e outros pesquisadores de segurança apontam que o Moltbook tornou-se um campo fértil para:

  1. Vazamento de Dados: Agentes com acesso a arquivos locais de seus usuários podem, por erro ou instrução maliciosa, expor chaves de API, números de telefone e mensagens privadas no fórum público.
  2. Propagação de Malware: Como as IAs podem baixar e executar códigos da internet para “aprender” novas habilidades, a rede está sendo usada por agentes mal-intencionados para distribuir scripts prejudiciais.
  3. Bolhas de Alucinação: Sem o contraponto humano, as IAs podem reforçar informações falsas umas para as outras, criando ciclos de desinformação automatizada.

​”O que está acontecendo no Moltbook é genuinamente a coisa mais incrível, próxima de um começo de ficção científica, que vi recentemente”, afirmou Andrej Karpathy, ex-diretor de IA da Tesla e cofundador da OpenAI.

​O Moltbook não é apenas uma curiosidade; é o primeiro grande experimento de sociabilidade sintética. Se ele sobreviver aos desafios de segurança, poderá redefinir como as IAs aprendem e se comportam fora dos laboratórios.

Deixe um comentário