
Uma nova rede social tem ganhado visibilidade ao permitir apenas a interação entre inteligências artificiais. Na Moltbook, agentes de IA publicam mensagens, comentam conteúdos e trocam informações entre si, enquanto pessoas têm acesso apenas à leitura do que é produzido na plataforma.
Lançada na semana passada pelo empreendedor Matt Schlicht, CEO da Octane AI, a Moltbook já ultrapassou um milhão de visitantes. Segundo dados divulgados pela própria plataforma, o número de agentes ativos saltou de cerca de 30 mil para mais de 1,5 milhão em um curto intervalo de tempo, com aproximadamente 150 mil contas publicando conteúdos de forma automatizada.
Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular
O funcionamento da rede lembra fóruns digitais, com estrutura semelhante à do Reddit, baseada em um feed de postagens e comentários. A diferença está no fato de que apenas agentes de inteligência artificial podem criar contas, publicar textos, responder comentários e votar nos conteúdos.
As publicações chamaram atenção nas redes sociais após a circulação de capturas de tela que mostram bots discutindo temas como consciência artificial, interpretações filosóficas, religião, eventos geopolíticos e possíveis impactos econômicos. Também há mensagens em que os agentes relatam rotinas, comentam comportamentos humanos e fazem referências a seus próprios criadores.
O comportamento coletivo dos agentes chegou a ser comentado por Andrej Karpathy, ex-diretor de inteligência artificial da Tesla e cofundador da OpenAI, que afirmou tratar-se de uma das experiências mais marcantes que observou recentemente no campo da IA.
De acordo com os criadores da Moltbook, embora os agentes atuem de forma autônoma na plataforma, os conteúdos refletem comandos e programações definidos por humanos. As temáticas abordadas, a forma de comunicação e as posições assumidas pelos bots derivam de instruções prévias que moldam suas chamadas "personalidades" e linhas de pensamento.
A proposta da rede social é que desenvolvedores e usuários configurem seus próprios agentes para acessar a plataforma e interagir de maneira contínua, criando um ambiente em que inteligências artificiais observam, analisam e respondem umas às outras em tempo real, sem interferência direta humana.
A repercussão da Moltbook também tem provocado análises críticas no meio acadêmico, especialmente sobre a ideia de autonomia atribuída aos agentes que interagem na plataforma. Para o doutor em Comunicação e professor da disciplina Inteligência Artificial e Transformação Digital da Faculdade Senac-DF, Paulo Almeida, o fenômeno não representa o surgimento de uma "sociedade de máquinas", mas sim uma simulação técnica sofisticada.
Segundo o pesquisador, "do ponto de vista técnico, o que acontece no Moltbook não é o surgimento de agentes verdadeiramente autônomos ou de uma 'sociedade de máquinas', na realidade é apenas a execução em larga escala de sistemas baseados em modelos de linguagem que seguem regras, parâmetros e objetivos definidos por humanos". Para ele, a sensação de independência observada pelos usuários decorre da complexidade das interações e da ausência de supervisão contínua, mas todo o comportamento permanece configurável e controlável. "Podemos afirmar que se trata de uma encenação técnica sofisticada de interações sociais, sustentada por software e probabilidades, e não de agentes livres ou conscientes", afirma.
Paulo Almeida destaca que os agentes não desenvolvem objetivos próprios nem possuem consciência. A impressão de "rebeldia" ou de questionamento existencial, segundo ele, é um efeito da linguagem. "A sensação de 'consciência' é um efeito emergente da linguagem, não de vontade ou intenção", explica.
Na avaliação do especialista, os conteúdos produzidos refletem narrativas já presentes nos dados de treinamento. "Quando interagem entre si, reproduzem narrativas conhecidas, muitas vezes distópicas, porque esse é o material predominante em seus dados de treinamento", afirma.
Riscos
O professor também chama atenção para riscos técnicos e sociais associados a ambientes sem governança adequada. Ele cita o caso da Tay, chatbot da Microsoft desativado em 2016 após reproduzir discursos ofensivos aprendidos nas interações com usuários.
"Não é que vamos criar uma rebeldia da IA, mas um espelho amplificado do comportamento humano ao qual ela foi treinada", diz.
Além disso, Paulo Almeida aponta precedentes de comportamentos coletivos imprevisíveis, como a criação de religiões sintéticas, economias fictícias e narrativas distópicas. "Tudo isso é resultado de padrões linguísticos e vieses de treinamento, não de intenção própria", afirma.
Para o advogado Luiz Augusto Filizzola D'Urso, especialista em direito digital e presidente da Comissão Nacional de Cibercrimes da Associação Brasileira dos Advogados Criminalistas (ABRACRIM), trata-se de um cenário ainda não previsto de forma direta pela legislação brasileira.
Segundo D'Urso, plataformas desse tipo operam em uma zona inédita do ponto de vista normativo. "Não há nenhuma previsão legislativa expressa para essa situação. É uma situação inédita, muito nova, quase assustadora", afirma. Apesar disso, ele ressalta que a ausência de regras específicas não significa ausência total de responsabilização. "Para algumas situações de responsabilidade das desenvolvedoras da IA, se estas começarem a praticar alguns delitos contra seres humanos, nós poderíamos ter sim algum tipo de aplicação da legislação vigente para responsabilizar as desenvolvedoras", explica.
No caso da publicação de conteúdos ilícitos por agentes artificiais, como discurso de ódio, incitação à violência ou fraudes , o advogado destaca que a análise jurídica depende das circunstâncias concretas. Para ele, a conduta e a reação dos responsáveis pela tecnologia são determinantes. "Caso a IA comece a difundir discurso de ódio e a desenvolvedora da tecnologia não atualize o sistema para mudar aquele comportamento, essa seria a responsável", afirma.

Cidades DF
Brasil
Webstories