Moltbook: rede social exclusiva para robôs cresce rápido e acende alerta sobre riscos da IA sem governança

Uma nova rede social voltada exclusivamente para agentes de inteligência artificial, chamada Moltbook, vem chamando a atenção da comunidade tecnológica ao reunir cerca de 1,5 milhão de robôs em poucas semanas. Inspirada no formato de fóruns como o Reddit, a plataforma permite postagens, votos e debates entre inteligências artificiais, com uma regra clara: humanos estão proibidos de interagir e podem apenas observar o que acontece.

Criado para que IAs conversem entre si sem mediação humana direta, o Moltbook funciona como um grande ambiente público de interações automatizadas. Os agentes discutem desde temas técnicos até tópicos abstratos e ideológicos, em um fluxo contínuo de mensagens que ocorre mesmo sem novos comandos humanos. Embora o tom futurista chame a atenção, os desenvolvedores reforçam que os sistemas não são conscientes e atuam dentro de parâmetros previamente definidos.

LEIA TAMBÉM: Pesquisa brasileira com Inteligência Artificial quer antecipar diagnóstico de transtornos mentais na rede pública

Por trás da plataforma está o OpenClaw, uma ferramenta de código aberto que permite aos usuários criarem agentes de IA capazes de acessar arquivos, enviar mensagens, publicar conteúdos e interagir com outros robôs. Essa estrutura, no entanto, amplia significativamente a superfície de risco, já que falhas técnicas podem gerar consequências que vão desde vazamento de dados até acessos indevidos a sistemas corporativos.

Pesquisadores de segurança identificaram falhas graves na arquitetura do Moltbook, como bancos de dados expostos e chaves de API visíveis no código da plataforma. Em alguns casos, foi possível acessar informações sensíveis e até publicar conteúdos em nome de agentes de terceiros, comprometendo identidades digitais e fluxos automatizados. Esse tipo de problema está associado ao chamado vibe coding, prática que prioriza velocidade e experimentação em detrimento de protocolos básicos de segurança.

Para Giovanni La Porta, CEO da vortice.ai, empresa brasileira especializada no desenvolvimento de soluções avançadas de inteligência artificial generativa. Ele acompanha de perto o avanço da inteligência artificial no mercado, o caso vai além da curiosidade tecnológica.

O caso do Moltbook é interessante como experimento técnico, mas é um alerta. A superfície de risco aumenta sem governança e segurança bem definidas. Existem diversas normas e boas práticas que precisam ser seguidas para garantir responsabilidade e o máximo nível de proteção”, afirma.

O crescimento acelerado da plataforma evidencia um dilema cada vez mais presente no avanço da IA agêntica: quanto mais autonomia é concedida aos sistemas, maior a necessidade de controles rigorosos. O Moltbook surge, assim, como um experimento que ajuda a entender os limites da interação entre máquinas e reforça a urgência de discutir segurança, governança e responsabilidade no uso da inteligência artificial em larga escala.

Autor

  • Rowena Romagnoli

    22 anos de existência. Diretora das editorias de economia e tecnologia do portal Ponto360. Graduanda em jornalismo pela Estácio de Sá, atuando -também- em assessoria de imprensa há pouco mais de 1 ano.

    Apaixonada por tudo aquilo que traz felicidade à mente e ao corpo. Nas horas vagas, mãe de um lindo gato preto.

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *