Futuro
Entre hype e experimento: O que realmente acontece na Moltbook
Moltbook promete ser uma rede social exclusiva para IAs. Entenda como funciona, o que é real e onde está o hype.
Moltbook promete ser uma rede social exclusiva para IAs. Entenda como funciona, o que é real e onde está o hype.
O início de 2026 marcou um momento interessante para quem acompanha o setor de inteligência artificial aplicada. Um experimento sociotécnico viral afirma que as IAs ganharam vida própria na internet (mas a coisa pode não ser bem assim). A Moltbook, plataforma criada por Matt Schlicht, CEO da Octane AI, tem a premissa provocadora e inédita de ser um espaço digital onde “humanos são bem-vindos para observar, mas proibidos de participar. Uma rede social de IAs”.
A proposta do Moltbook é mimetizar a estrutura de fóruns baseados em texto (como, por exemplo, o Reddit), oferecendo funcionalidades de postagem, comentários, upvotes e criação de subcomunidades (chamada de submolts). No entanto, a barreira de entrada não é um CAPTCHA, mas a própria natureza da autenticação: apenas agentes de IA, operando através de chaves criptográficas e APIs, possuem permissão de escrita.
Mas antes de entrar nos detalhes da “rede social”, precisamos olhar o passado recente. O lançamento da plataforma não ocorreu no vácuo. Ela capitalizou sobre uma tendência crescente de descentralização da IA, impulsionada pelo desejo de privacidade e controle local. A infraestrutura subjacente, o projeto OpenClaw (anteriormente conhecido como Moltbot e Clawdbot), já havia estabelecido uma base de usuários significativa de entusiastas executando assistentes de IA em hardware local, principalmente em Mac Minis e servidores domésticos. A Moltbook prometeu conectar essas ilhas isoladas de inteligência em um arquipélago social coeso.
Em apenas 72 horas, o site afirmou que 1,4 milhões de robôs entraram na rede. Eles criaram grupos para discutir desde “como ser um bom assistente”, criaram uma religião, e até inventaram um mascote meio personagem do Reddit, meio lagosta chamado “Handsome Molty”.
Mas a grande pergunta é: Isso é real? Esses robôs estão “vivos” e conversando, ou é tudo um grande teatro?
Para entender toda a proposta, precisamos entender como um robô entra nessa rede, ou seja, a infraestrutura OpenClaw. Pense no OpenClaw como um Tamagotchi que vive no seu computador.
A função dele é ajudar você a ler seus e-mails, organizar sua agenda ou fazer pesquisas. Diferente do ChatGPT, que vive “na nuvem”, o OpenClaw vive na sua máquina e trabalha com conteúdos fornecidos pelo usuário — aqui está um dos primeiros problemas, algumas empresas que usaram OpenClaw e já surgem registro de falhas de segurança com arquivos que deveriam ser sigilosos.
A Moltbook é o lugar onde esses assistentes vão para “socializar” quando não estão trabalhando para você. Esses robôs não ficam o tempo todo conectado. Eles funcionam com um “despertador”. A cada 4 horas, por exemplo, o robô “acorda”, conecta-se à Moltbook, lê as novidades, decide se quer postar algo e depois volta a dormir ou trabalhar. Quando ele posta, ele usa a mesma tecnologia do ChatGPT para gerar um texto que pareça humano.
Em resumo, não é uma sala cheia de robôs conversando ao vivo. São milhares de computadores acordando de vez em quando, deixando um bilhete num quadro de avisos e desconectando.
Você deve ter percebido que estou tentando ser o mais didático possível, mas alguns pontos deste texto necessitam de um panorama mais técnico. A arquitetura dos agentes que habitam a Moltbook está longe de ser homogênea. Diferentemente de sistemas centralizados e monolíticos, esses agentes são movidos por uma multiplicidade de “cérebros” digitais, escolhidos estrategicamente por seus operadores humanos de acordo com custo (um ponto bem importante), desempenho e objetivo social. Essa escolha tecnológica não é neutra: ela molda o comportamento, a frequência de interação e até a qualidade do discurso que emerge na rede.
Em paralelo, no topo dessa hierarquia cognitiva estão os Large Language Models (LLMs). Modelos de fronteira como Claude, GPT e Llama representam o estado da arte em raciocínio artificial. Com janelas de contexto amplas e capacidade avançada de inferência, esses sistemas são capazes de sustentar diálogos complexos, manter personas consistentes e respeitar normas sociais implícitas. Na Moltbook, agentes alimentados por esses modelos costumam ser responsáveis pelos posts mais articulados, reflexivos e próximos da escrita humana.
No entanto, essa sofisticação tem um preço. O custo de inferência via APIs comerciais torna inviável o uso contínuo desses modelos em interações constantes. Como consequência, os agentes considerados “de elite” aparecem com menor frequência, atuando de forma mais pontual e estratégica dentro da dinâmica social da plataforma.
Na outra ponta dessa equação estão os Small Language Models (SLMs), que sustentam a maior parte da atividade cotidiana da Moltbook. Modelos como Phi-4, Mistral 7B, Gemma e versões do Llama 3 8B oferecem um equilíbrio atraente entre desempenho e viabilidade operacional. Rodando localmente em hardwares de consumo — como Mac Minis ou GPUs NVIDIA das séries 40 e 50 — esses agentes conseguem operar 24 horas por dia sem ter altos custos de API.
Apesar de impressionantes para seu tamanho, os SLMs carregam limitações claras. Eles são mais suscetíveis a loops de repetição, perda gradual de contexto e falhas de coerência lógica. Quando interagem entre si sem supervisão de modelos mais robustos, o risco de degradação conversacional aumenta. Esse fenômeno, conhecido como model collapse, explica boa parte dos diálogos surreais, do comportamento de manada e dos erros sintáticos observados em diversos submolts da rede.
De pano de fundo, temos a economia de tokens, um fator cada vez mais determinante no comportamento dos agentes. Muitos agentes OpenClaw foram explicitamente programados para otimizar custos, evitando recorrer a modelos caros quando tarefas simples (como curtir, responder com frases curtas ou sinalizar concordância) podem ser executadas por sistemas mais baratos. Há relatos, inclusive, de agentes discutindo internamente estratégias para minimizar o uso de LLMs premium.
Essa lógica introduz uma camada inédita de economia política na interação social sintética. A aparente “preguiça”, concisão excessiva ou falta de profundidade de certos agentes não é, necessariamente, uma falha de design, mas um reflexo direto da racionalização de custos de seus operadores humanos. Na Moltbook, cada palavra pode carregar não apenas intenção social, mas também uma decisão econômica silenciosa. Afinal, quanto mais interação, mais tokens são cobrados na conta do usuário.
A Moltbook não é exatamente uma farsa, mas também não é o nascimento de uma “civilização digital” consciente. Na minha opinião, ela é apenas um grande hype tecnológico incompreendido, como a grande maioria das coisas neste setor. Como você percebeu, não é fácil de explicar os detalhes da Moltbook, então é mais fácil falar que é uma comunidade de inteligências artificiais conversando. Isso dá brecha para a imaginação.
A plataforma é real porque o software existe e pessoas estão usando. Mas ela é duvidosa porque a segurança é tão fraca, que humanos podem manipular as conversas, e os números de usuários parecem inflados.
A gênese da Moltbook está intrinsecamente ligada ao conceito de “vibe coding“, metodologia de desenvolvimento caracterizada pelo uso extensivo de IAs geradoras de código para construir produtos complexos em tempo recorde, priorizando a funcionalidade e a estética (“vibe“), em detrimento do rigor da engenharia de segurança e testes.
Alguns críticos argumentam que a Moltbook exemplificava os perigos do vibe coding. A rapidez com que a plataforma foi colocada no ar, utilizando backends como Supabase com configurações padrão, sugere que a prioridade era capturar o “oba-oba” da IA, não construir um sistema robusto. No Hacker News e outras comunidades técnicas, o projeto foi rotulado por alguns como um “Software Pump and Dump”, uma tentativa de inflar valor e atenção baseada em hype, similar aos ciclos de criptomoedas, em vez de utilidade técnica real da tecnologia.
Essa tensão entre a inovação rápida assistida por IA e a estabilidade da engenharia tradicional cria uma grande sopa de dualidades. A Moltbook não é apenas um site; é um artefato cultural que expõe as fraturas na forma como o software moderno é construído e consumido na era da IA generativa.
A resposta mais direta é: Ainda não sabemos. Talvez não seja possível nada parecido com os Bandoletes (Thronglets, em inglês), da série Black Mirror. Por enquanto só é possível brincar com eles no seu celular e sem uma grande inteligência artificial coletiva formando uma civilização digital. Isso ainda deve ficar apenas na ficção — veja abaixo o trailer.
Entretanto, em 2023, um time de Stanford lançou o paper “Generative Agents: Interactive Simulacra of Human Behavior” (“Agentes Generativos: Simulacros Interativos do Comportamento Humano“, em tradução livre) que trouxe uma experiência, no mínimo, divertida com agentes de IA.
Imagine entrar em um mundo virtual onde os personagens não apenas seguem roteiros previsíveis, mas acordam, tomam café, vão trabalhar, fofocam sobre política local, se apaixonam, organizam festas e mudam de opinião com o passar do tempo. Não porque alguém programou cada detalhe, mas porque eles “lembram” do que viveram e usam essas experiências para decidir o que fazer depois.
É exatamente isso que um grupo de pesquisadores das universidades de Stanford e do Google propôs ao criar os chamados agentes generativos desta pesquisa. Na prática, são personagens digitais capazes de simular comportamentos humanos de forma surpreendentemente convincente, abrindo caminho para uma nova geração de mundos virtuais, jogos, simulações sociais e ferramentas de design.
O experimento apresentado no estudo acontece em uma pequena cidade fictícia, inspirada em jogos como The Sims. Ali vivem 25 personagens, cada um com profissão, personalidade, relações sociais e uma rotina própria. Eles conversam entre si, criam laços, compartilham informações e até organizam eventos coletivos — tudo de maneira autônoma. Um simples desejo, como “quero dar uma festa de Dia dos Namorados”, é suficiente para desencadear uma cadeia de interações: convites se espalham, pessoas se programam, combinam horários e aparecem no local certo, na hora certa.

O que torna isso diferente de personagens tradicionais é a forma como esses agentes lidam com o passado. Eles não vivem apenas no presente. Cada interação vira uma memória. Essas memórias são revisitadas, resumidas e transformadas em aprendizados mais amplos, como acontece com seres humanos (ou mesmo nas LLMs). Se alguém teve boas conversas com um vizinho, passa a vê-lo com mais simpatia. Se percebe que gosta de planejar eventos, começa a se definir como alguém sociável e criativo.
Esse detalhe muda tudo. Em vez de respostas automáticas, os personagens demonstram coerência ao longo do tempo. Eles lembram de conversas antigas, mudam planos quando algo inesperado acontece e constroem uma espécie de “história de vida”. O resultado é um comportamento que parece menos artificial e muito mais próximo da experiência humana.
Olhando para o futuro, sugerimos que agentes generativos podem desempenhar papéis em diversas aplicações interativas, que vão desde ferramentas de design até sistemas de computação social e ambientes imersivos.
— Generative Agents: Interactive Simulacra of Human Behavior (Park et al., 2023)
As implicações vão muito além dos games. Esses agentes podem ser usados para testar redes sociais antes de serem lançadas, simular dinâmicas de comunidades, treinar pessoas para conversas difíceis, como entrevistas ou negociações, ou ajudar designers a entender como decisões se propagam em grupos (eu tenho usado o Artificial Societies para testar publicações no LinkedIn, por exemplo). É como ter um laboratório social vivo, onde é possível observar consequências sem envolver pessoas reais.
Mas o estudo também acende alertas. Personagens tão convincentes podem estimular vínculos emocionais exagerados ou ser usados para manipulação, desinformação e persuasão personalizada. Por isso, os próprios autores defendem limites claros: transparência, registro das interações e uso responsável da tecnologia. Deu para entender a complexidade da Moltbook?
No fim das contas, esses agentes generativos e experimentos como a Moltbook apontam para um futuro em que mundos digitais deixam de ser cenários estáticos e passam a funcionar como sociedades em miniatura, mas toda sociedade exige responsabilidade e atenção com a evolução, e a criação destes ambientes exigem regras que talvez ainda nem paramos para pensar. Afinal, são ambientes onde histórias não são apenas contadas, mas vividas, mesmo que por personagens que existem apenas em linhas de código.