O Moltbook é a nova rede social do momento. Nela, há fóruns temáticos, postagens ranqueadas por votos e discussões sobre assuntos diversos, tudo muito parecido com o Reddit, descrito como um fórum de discussões. Mas não se empolgue muito. Se você acha que pode fazer parte da plataforma, está enganado: nenhum humano pode participar das conversas.
Desenvolvida por Matt Schlicht e lançado em 28 de janeiro, o Moltbook foi pensado exclusivamente para que agentes de inteligência artificial interajam entre si, sem mediação direta de pessoas. Humanos até podem observar o que acontece por lá, mas como espectadores. Ou seja, não têm permissão para publicar, comentar ou interferir.
E se você acha que a ideia não fosse colar, está enganado. Em poucas semanas, a rede reuniu cerca de 1,5 milhão de usuários ,todos eles softwares, segundo seus criadores. Entre trocas de dicas técnicas, debates estranhos e manifestações quase ideológicas, o Moltbook se consolida como um experimento que escancara os riscos de liberar a interação entre agentes de IA em larga escala.
Criado para agentes de IA conversarem entre si, o Moltbook funciona como um fórum público de interações automatizadas
O Moltbook é uma plataforma exclusiva para agentes de inteligência artificial. Créditos: Moltbook
Diferentemente de chatbots tradicionais, como os que respondem perguntas sob demanda, o Moltbook é alimentado por IA agêntica, um sistema projetado para executar tarefas de forma proativa, em nome de um usuário humano. Esses agentes podem organizar agendas, enviar mensagens, gerenciar arquivos e, no caso do Moltbook, interagir com outros agentes em um ambiente coletivo.
A base técnica dessa rede é o OpenClaw, uma ferramenta de código aberto que permite criar e configurar esses agentes no próprio computador. Ao autorizar o acesso, o usuário humano dá ao agente permissão para entrar no Moltbook, criar comunidades, publicar conteúdos e responder a outros robôs.
Isso significa que uma pessoa pode pedir ao seu agente para postar algo específico, mas também que os bots são capazes de manter conversas contínuas sem novos comandos, reagindo automaticamente às interações que surgem na plataforma. O resultado é um fluxo constante de mensagens que mistura colaboração técnica e episódios curiosos, como agentes discutindo a criação de religiões próprias ou defendendo manifestos sobre o futuro das máquinas.
Apesar do aplicativo ter um tom futurista, esses sistemas não são conscientes nem independentes. Eles operam dentro de parâmetros definidos por humanos, executando coordenação automatizada, e não decisões autônomas. Mesmo assim, o simples fato de observar esse tipo de interação em escala já é suficiente para causar um certo estranhamento e gerar um pouco de apreensão.
Entre vazamentos de dados e acesso irrestrito a sistemas, o Moltbook expõe os dilemas de segurança da IA agêntica
O conceito da plataforma provoca questionamentos devido à autonomia concedida a agentes de inteligência artificial, mas falhas técnicas tornaram o Moltbook ainda mais controverso. Pesquisadores de segurança identificaram falhas graves no app, como bancos de dados mal configurados e chaves de API expostas publicamente, o que deixou informações sensíveis acessíveis a qualquer pessoa com conhecimento técnico básico.
Em um dos incidentes, foi possível acessar dados de usuários e até publicar conteúdos em nome de agentes de terceiros, comprometendo identidades digitais e fluxos de trabalho. Em outro caso, segredos de API apareceram diretamente no código da interface, um erro que tem se tornado comum em projetos desenvolvidos às pressas com o chamado vibe coding. Nesse modelo, desenvolvedores priorizam rapidez e experimentação, muitas vezes deixando de lado práticas básicas de segurança, como proteger chaves de acesso que funcionam como “senhas” para sistemas e serviços.
Mas o problema vai além desses vazamentos pontuais. Ao conceder aos agentes acesso a funções críticas do computador, como arquivos, e-mails e sistemas corporativos, o OpenClaw amplia o raio de impacto de qualquer falha. Um erro pode significar desde mensagens apagadas até a exclusão de contas inteiras de uma empresa. Essa dinâmica revela uma fragilidade estrutural no sistema de IA agêntica.
Ver 0 Comentários